Świat cyfrowych artefaktów, cyfrowe surogaty i cyfrowa apokalipsa...
Wstęp do historii zmian w algorytmach Google

Wstęp do historii zmian w algorytmach Google

Wstęp do historii zmian w algorytmach Google

Według wykazu sporządzonego przez Moz [2022] historia zmian w algorytmach Google rozpoczęła się już ponad 20 lat temu, tj. w 2000 roku. W dużej mierze historia ta opowiada o poprawie jakości wyników wyszukiwania i walce ze spamem.

Firma Moz została założona w 2004 roku pod nazwą SEOmoz i zaczynała jako blog dla społeczności ekspertów SEO, którzy dzielili się tam swoimi obserwacjami, wynikami badań i pomysłami. Niedługo potem centrum wiedzy branżowej SEOmoz przekształciło się w niewielką firmę konsultingową. W 2013 roku markę przekształcono w Moz.

Eksplozja treści, ale gdzie jest jakość?

Jeszcze do niedawna wartościowe treści konkurowały z produkcją masową, wytwarzaną dosłownie w fabrykach treści (content factories). To, co użyteczne ginęło w nadmiarze śmieciowych, odpowiednio spreparowanych treści. W dodatku farmy treści plasowane były na wyższych miejscach w wynikach wyszukiwania niż witryny renomowane, a nawet strony (samo)rządowe. Celem witryn spamowych była pogoń za pozycją w rankingu lub liczbą wyświetleń, nierzadko przy pomocy treści, technik i narzędzi, które nie przynosiły korzyści użytkownikom lub były wręcz nielegalne lub nieetyczne [Levy 2011].

Farmy treści dosłownie produkowały masowe ilości treści słabej jakości, najmniejszym kosztem [McGee 2011].

W konsekwencji web scrapery, tj. witryny korzystające z treści opublikowanych w innych źródłach, oferujące przedruki i parafrazy były nierzadko wyżej plasowane w wynikach wyszukiwania niż „oryginały” [Sullivan 2011a]. Jednak era treści złej jakości, tzn. „płytkich” i powierzchownych (shallow or low-quality content) dobiegła końca. W 2011 roku Google wysłało ostrzeżenie dotyczące „farm treści”, które utrzymywano z myślą o wynikach wyszukiwania, a nie użytkownikach [McGee 2011].

„Google jest okropne”, czyli jak zmieniły się algorytmy wyszukiwania Google

Początkowo, w erze Web 1.0 oraz w początkach Web 2.0 copywriterzy i tzw. specjaliści SEO „upychali” w tekście słowa kluczowe (keyword stuffing), co w większości przypadków pozwalało uzyskać wysokie miejsca w wynikach wyszukiwania. Coraz większym problemem były nieuczciwe praktyki, różnego rodzaju sztuczki, które pozwalały uplasować witrynę na wysokim miejscu w wynikach wyszukiwania, pomimo że nie zawierała ona żadnych wartościowych treści lub przedstawiała całkowicie nieistotne treści. Już na początku millenium wystosowano prosty postulat, który dziś wydaje się oczywisty, ale w 2002 roku taki nie był – „Webmasterzy niech skupią się na tworzeniu dobrych stron, a Google niech skupi się na indeksowaniu dobrych treści.” [WebmasterWorld 2002].

Techniki spamowe z każdym rokiem stają się coraz bardziej wyszukane, ponieważ algorytmy wyszukiwarek stają się coraz bardziej skomplikowane. Dziś, aby dostać się na szczyt wyników wyszukiwania nie wystarczy blok tekstu wypełniony słowami kluczowymi.

Zmiany w algorytmach wyszukiwarki Google znacząco wpływały na rynki usług wyszukiwania, optymalizacji witryn dla wyszukiwarek internetowych oraz pozycjonowania. Głosy były jednak zróżnicowane i podzielone, począwszy od wzburzenia, skończywszy na zdystansowanej analizie [WebmasterWorld 2002]:

  • — „Już dawno temu skreśliliśmy Google, jako niezawodnego dostawcę ruchu i uczciwego SERPa.” (Shoestring, 6:14, 28 września 2002 r.); SERP, Search Engine Results Page – strona wyników wyszukiwania wyświetlana przez wyszukiwarkę w odpowiedzi na zapytanie użytkownika.
  • — „Poczekam, aby zobaczyć reakcje prawdziwych klientów Google na tę aktualizację (algorytmu wyszukiwania, red.), a nie webmasterów, zanim ocenię zmianę jakości indeksu Google lub stwierdzę, że jest to 'straszne’ lub nie jest.” (chiyo, 6:01, 28 września 2002 r.).
  • — „Jakie obowiązki ma Google wobec nas, jako webmasterów? Żadne! Google ma obowiązki przede wszystkim wobec swoich użytkowników.” (28 września 2002 r.).

Początki walki ze spamem

Walka ze spamem rozpoczęła się od konfrontacji algorytmów z farmami linków, farmami treści oraz „upychaniem” słów kluczowych, chociaż walka z farmami linków rozpoczęła się nieco później. W październiku 2005 roku firma Google wydała serię aktualizacji, głównie ukierunkowanych na linki niskiej jakości, w tym linki wzajemne, farmy linków i linki płatne. Algorytm Jagger był implementowany w co najmniej trzech etapach do listopada 2005 roku, przy czym największy wpływ na wyniki wyszukiwania miała aktualizacja październikowa. Pewnym rodzajem farmy linków były w swoim czasie niezwykle popularne katalogi witryn.

archiwumW wyniku zmian algorytmów wyszukiwarek katalogi witryn stały się obciążeniem dla swoich wydawców, przede wszystkim dlatego, że nie zawierały wartościowych treści [więcej]

Farmy treści rozrastały się w procesie ciągłej weryfikacji najbardziej popularnych wyszukiwań w określonej kategorii, a następnie generowania treści dostosowanych do tych wyszukiwań (zapytań kierowanych do wyszukiwarek). Przeważnie treści tego typu powstawały szybko i w masowej ilości. Miały także powierzchowny charakter. Owszem były językowo poprawne, jednak przedstawiały wybrane zagadnienia skrótowo lub pobieżnie [Sullivan 2011b]. Wdrożenie algorytmu Farmer Update (Panda) miało zapobiec powstawianiu i dalszemu funkcjonowaniu farm treści.

Google Panda i Penguin: algorytmy, które zmieniły SEO

Do najpopularniejszych algorytmów Google z obszaru SEO najczęściej zaliczane są Panda, Penguin i Hummingbird, które zwiększyły skuteczność wykrywania witryn niskiej jakości, przez co wpłynęły na rankingi wyników wyszukiwania [Patil i in. 2021].

Po zmianach w algorytmach Google „dotychczas” stosowane metody budowania pozycji witryn w cyfrowym ekosystemie stały się bezużyteczne, a nawet zaczęły szkodzić witrynom.

Celem regularnych aktualizacji Google jest zapewnienie użytkownikom najlepszych i najtrafniejszych wyników wyszukiwania. Aktualizacja Panda 4.0 dotyczyła w szczególności tego, co Google uważało za „witryny niskiej jakości”, chociaż wiele znanych i dużych serwisów internetowych również odczuło wpływ aktualizacji. Jej celem było obniżenie rekomendacji dla witryn ze zduplikowaną zawartością, w tym agregatorów treści, i nagradzanie witryn z przydatną zawartością [Kingshott i Keck 2014].

Scraper Update, Panda (Farmer) Update

Farmer (Panda) to algorytm Google, który „nienawidził farm treści” [Levy 2011]. W dniach 23-24 lutego 2011 roku w Stanach Zjednoczonych przeprowadzono relatywnie dużą aktualizację algorytmów Google. Zmiana miała zauważalny wpływ na około 11,8% wyników wyszukiwania w samym tylko USA [Sullivan 2011b]. Aktualizacja miała na celu obniżenie rankingu witryn niskiej jakości, o znikomej wartości dla użytkowników, w tym witryn powielających zawartość innych serwisów. W konsekwencji zapewniło to przestrzeń dla lepszego uplasowania w rankingach witryn wysokiej jakości, z oryginalną i przydatną treścią. W kwietniu 2011 roku zmiany te wprowadzono na całym świecie dla wszystkich anglojęzycznych użytkowników Google [Singhal 2011].

W rzeczywistości nazwa Farmer Update została ukuta przez publicystów. Google zmiany w algorytmach wdrożone w 2011 roku zostały nazwane Panda Update, co ujawniono chwilę po ich wprowadzeniu [Sullivan 2011b].

11 kwietnia 2011 roku przeprowadzono aktualizację Panda 2.0 względem wszystkich zapytań w języku angielskim na całym świecie (aktualizacja nie ograniczała się do krajów anglojęzycznych). 12 sierpnia 2011 roku na całym świecie wdrożona została aktualizacja Panda 2.4, zarówno w przypadku zapytań w języku angielskim, jak i w innych językach, z wyjątkiem chińskiego, japońskiego i koreańskiego. Według Google wpłynęło to na około 6-9% zapytań w wyszukiwarce. W kwietniu 2011 roku aktualizacja zawitała również do Europy [Level343 LLC 2011]. Panda zdawała się rozprawiać z „cienkimi treściami”, farmami treści, witrynami o wysokim współczynniku reklam do treści i wieloma innymi problemami z jakością treści.

Po wdrożeniu Pandy swoje pozycje straciły serwisy, które wyświetlały artykuły z różnych źródeł zewnętrznych w sposób skonsolidowany (agregatory treści).

Witryny typu „scraper” (scraper sites) pobierają i publikują treści z różnych źródeł. Niektóre robią to w sposób legalny, kontraktowy, a niektóre po prostu kopiują treści z innych witryn w sposób zautomatyzowany. Praktyki te zostały w dużej mierze zastopowane przez aktualizację Scraper Update, która również miała miejsce w 2011 roku.

24 kwietnia 2012 roku, po tygodniach spekulacji na temat „kary za nadmierną optymalizację”, Google przeprowadziło „aktualizację spamu internetowego”, która wkrótce zyskała nazwę „Penguin”. Według Google aktualizacją Penguin miała wpływ na około 3,1% zapytań w języku angielskim [Google 2012].

Podsumowanie

Wyszukiwarki w swoich początkach wywoływały wiele emocji, co jest w szczególności związane ze zjawiskiem Google Dance. W 2002 roku webmasterzy żalili się na zmiany algorytmów, które niweczyły ich pracę w zakresie pozycjonowania witryn, jednak wiele głosów było bardziej zdystansowanych i obiektywnych [WebmasterWorld 2002].

Wyszukiwarka, którą można łatwo manipulować nigdy nie zapewni dobrych wyników wyszukiwania.

Ponad dwie dekady temu amatorskie strony internetowe, często hostowane na bezpłatnych serwerach, zajmowały wysokie miejsca w wynikach wyszukiwania, co spędzało specjalistom SEO/SEM sen z powiek: „SERP numer jeden dla słów kluczowych, które obserwuję, jest jak dotąd zdominowany przez okropną stronę, której nie ma w DMOZ i która nie posiada PageRank. Nigdy wcześniej czegoś takiego nie widziałem. Boże, to okropna amatorska strona internetowa, który sprawia, że SERP wygląda haniebnie.” (28 września 2002 r.) [WebmasterWorld 2002].

DMOZKatalog internetowy DMOZ był zbiorem milionów adresów internetowych, skategoryzowanych i doglądanych przez społeczność wolontariuszy z całego świata [więcej]

Droga do realizacji filozofii Content is King nie była i nadal nie jest prosta: „Błędy popełniane przez algorytmy Google, takie jak przecenianie tytułów stron, witryn o długim stażu i większych witryn (więcej treści), wynikają z wysiłków podejmowanych w celu odnalezienia i dostarczenia wartościowych treści. Można się oszukiwać, myśląc że tytuły ze słowami kluczowymi, mało wartościowe linki i rzesze powiązanych stron reprezentują dobrą treść, ale wynika to z najlepszych intencji.” [WebmasterWorld 2002].

Źródła

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany.