Historia aktualizacji wyszukiwarki Google - sprawdź, co się zmieniło od 2003 roku

6 kwietnia 2021
Historia aktualizacji wyszukiwarki Google - sprawdź, co się zmieniło od 2003 roku
Osiemnastka to czas wyjątkowego świętowania! Może to właśnie z tego powodu, na marzec 2021 roku została zapowiedziana dosyć istotna zmiana algorytmu wyszukiwarki. Termin ten został podany jako data wprowadzenia Mobile First Indeks - zmiany, po której jeszcze większe znaczenie będą odgrywały strony dostosowane do urządzeń mobilnych. Ale dlaczego osiemnastka? Jak się okazuje, od czasu wdrożenia pierwszej aktualizacji, która otrzymała swoją indywidualną nazwę, minęło już osiemnaście lat! W poniższym artykule zastanowimy się nad tym, jak przebiegał proces wprowadzania aktualizacji algorytmu wyszukiwarki Google, jakie są najbardziej znane aktualizacje i jaki wpływ wywarły na ranking organicznych wyników wyszukiwania.

Wyszukiwarka Google - narzędzie, z którego korzystasz każdego dnia
Przed erą Internetu, gdy chciałeś czegoś się dowiedzieć, to albo pytałeś bardziej doświadczonych osób, albo sięgałeś po opasłe encyklopedie, które można było znaleźć na półce w każdym domu. Dziś jest to coraz rzadszy widok. Po co komu w domu encyklopedie w formie papierowej, skoro wszystkie informacje, jakie są nam potrzebne (a nawet dużo więcej), można znaleźć w kilka chwil w sieci. Niezastąpiona w procesie wyszukiwania informacji w przestrzeni internetowej jest wyszukiwarka. To dzięki niej, w zaledwie kilka chwil, możemy otrzymać interesujące nas informacje. Jest kilka popularnych wyszukiwarek m.in. Yahoo, Baidu, Yandex czy DuckDuckGo, jednak chyba nikt nie ma wątpliwości, że gigantem, który bije na głowę wszystkich rywali, jest wyszukiwarka Google. 

Z wyszukiwarki Google korzystamy codziennie - w pracy, w szkole, w drodze do lekarza. Możemy przy jej pomocy dowiedzieć się, o której przyjedzie pociąg, jakie są godziny otwarcia najbliższego sklepu spożywczego, kiedy będzie pełnia księżyca. Znajdziemy w niej niemal wszystko. Wyszukiwarka Google okazuje się przydatna zarówno w pracy, jak i w życiu codziennym. Co sprawia, że zyskała tak ogromną popularność i to nie tylko w jednym kraju, lecz wśród użytkowników na całym świecie?

W jaki sposób roboty Google tworzą ranking stron internetowych?
O tym, jaka jest kolejność stron internetowych, wyświetlanych w rankingu organicznych wyników wyszukiwania decyduje algorytm wyszukiwarki. To on określa, jakimi aspektami mają kierować się roboty Google, które każdego dnia skanują zawartość stron internetowych. Zdecydowana większość zasad rządzących algorytmem wyszukiwarki Google jest tajna - nikt tak naprawdę nie wie, jaki jest komplet czynników decydujących o tym, że jedne strony znajdują się wyżej, a inne znacznie wyżej w bezpłatnych wynikach wyszukiwania.

Roboty Google mają bardzo ważne zadanie. Są odpowiedzialne za to, aby analizować informacje, które zawarte są na każdej stronie internetowej. Dzięki temu witryny trafiają do indeksu. Jeżeli nie chcesz, aby Twoja strona znalazła się w indeksie wyszukiwarki Google, możesz zabronić robotom wstępu - wówczas w kodzie serwisu musisz umieścić tag “no index”.

Algorytm wyszukiwarki jest stale aktualizowany i modyfikowany. Działania takie mają na celu usprawnienie pracy robotów. Ponadto, specjalistom Google zależy na tym, aby użytkownik otrzymywał jak najdokładniejsze wyniki, zgodne z zapytaniem, jakie wpisał w pole wyszukiwarki. Jak przebiegały i co przyniosły kolejne aktualizacje algorytmu wyszukiwarki Google? O tym przeczytasz poniżej.

Historia zmian algorytmu wyszukiwarki - krótki przewodnik
Do aktualizacji algorytmu wyszukiwarki Google zdążyliśmy się już przyzwyczaić, wszak towarzyszą nam już od prawie dwóch dekad. Pojawiały się na przestrzeni tego czasu z różną częstotliwością - niekiedy nawet kilka razy w roku. Każda zapowiedź wprowadzenia nowych zmian, działała paraliżująco na przedstawicieli branży SEO oraz na właścicieli serwisów internetowych. Tak jest i do tej pory. Nigdy nie wiadomo, jakie skutki w kolejności wyników wyszukiwania wywoła kolejna aktualizacja.

PageRank - pierwotny algorytm wyszukiwarki Google
Pierwszy algorytm, który zresztą został opatentowany przez Google to PageRank. Skąd się wzięła ta nazwa? Algorytm swoją nazwę zawdzięcza jednemu z założycieli firmy - był nim Larry Page. Zasada działania algorytmu była prosta - im więcej linków prowadziło do konkretnej strony internetowej, tym zyskiwała ona wyższe noty. Roboty wyszukiwarki na podstawie określonych czynników dokonywały ogólnej oceny witryny internetowej. Skala ocen mieściła się w przedziale od 0 do 10. 

Sama wartość PageRank nie była tajemnicą (w przeciwieństwie do szczegółowych wytycznych, na których bazowały roboty) i każdy mógł w prosty sposób sprawdzić, jaka ocena została przypisana do jego strony internetowej. Taką możliwość dawało np. rozszerzenie, które trzeba było zainstalować w przeglądarce. Algorytm PageRank był daleki od ideału, o czym najlepiej świadczył fakt, że manipulowanie pozycją strony nie stanowiło większego problemu. Skoro roboty oceniały daną witrynę na podstawie ilości (a nie jakości) linków przychodzących, to logiczne wydawało się, że chcąc podnieść PageRank, trzeba było zwiększyć liczbę tych linków. Okres funkcjonowania PageRank to złoty czas tzw. swl-i, czyli systemów wymiany linków. Specjaliści z Google dosyć szybko zorientowali się, że trzeba coś zrobić, aby udoskonalić algorytm wyszukiwarki. PageRank stopniowo zaczął tracić na znaczeniu, aż w końcu został zupełnie wycofany. Google PageRank na dobre zniknął w 2016 roku. 

Rok 2003 - pierwsze aktualizacje algorytmu wyszukiwania
Pierwsze aktualizacje algorytmu wyszukiwarki Google, które otrzymały swoje indywidualne nazwy (dzięki temu łatwiej zapadały w pamięć), miały miejsce 2003. Pod względem ilości wprowadzonych wówczas aktualizacji, rok ten wydaje się dosyć obfity. Pojawiły się wówczas m.in. Boston, Cassandra, Dominic, Esmeralda, Fritz czy Floryda. Rozpoczął się tzw. Taniec Google’a. Gigant miał w planach, aby odświeżać zasady rządzące algorytmem wyszukiwarki co miesiąc. Jak się szybko okazało, pomysł ten nie był zbyt trafiony i wkrótce zaprzestano takich działań.
  • Boston - to pierwsza aktualizacja algorytmu, która otrzymała swoją nazwę - aktualizacja została wprowadzona w lutym 2003. 
  • Cassandra - głównym celem wprowadzenia tej aktualizacji była walka z tekstem, który jest ukrywany na stronie oraz z ukrywanymi linkami - aktualizacja została wprowadzona w kwietniu 2004.
  • Dominic - kolejna zmiana algorytmu, w tym przypadku zostały odnotowane dosyć spore przetasowania w organicznych wynikach wyszukiwania, choć wiedza dotycząca tego, w jaki sposób zmienił się sposób tworzenia rankingu, pozostała tajemnicą - aktualizacja została wprowadzona w maju 2003. 
  • Esmeralda (czerwiec 2003) i Fritz (lipiec 2003) - to dwie ostatnie, wprowadzane w miesięcznym odstępie aktualizacje algorytmu.
  • Floryda - ostatnia aktualizacja z 2003 roku, która zapoczątkowała kolejne zmiany wprowadzane w algorytmie wyszukiwarki w kolejnych latach - miała za cel walkę z nieuczciwymi technikami SEO. To jedna z tych aktualizacji, które doprowadziły do dosyć mocnego przetasowania w naturalnych wynikach wyszukiwania. Najbardziej straciły strony, które stosowały nieuczciwe techniki pozycjonowania. Do takich metod zalicza się m.in. upychanie słów kluczowych (keyword stuffing), umieszczanie w witrynie ukrytego tekstów czy masowe gromadzenie linków prowadzących do strony. 
Rok 2004 - Austin i Brandy
Można rzec, że nowy rok to nowy początek. W kwestii aktualizacji algorytmu wyszukiwarki Google jednak nie do końca tak było. Firma Google postanowiła konsekwentnie walczyć z nieuczciwymi technikami pozycjonerskimi. Na pole bitwy wytoczono kolejny ciężki oręż, a był nim Austin, który został wdrożony w styczniu 2004 roku. Największe straty w rankingu odnotowały (podobnie jak przy aktualizacji Floryda) witryny korzystające z farm linków oraz te, które na siłę w meta tagach upychały masowo słowa kluczowe. Niektórzy mocno pożałowali metod, z jakich do tej pory korzystali. Najdotkliwszą karą, jaką wówczas zastosowano, był ban - strony, które się na niego załapały, zostały całkowicie i ostatecznie usunięte z rankingu wyszukiwarki - nie było już dla nich żadnego ratunku.

Na kolejne zmiany w algorytmie nie trzeba było długo czekać. Pojawiły się już miesiąc później, czyli w lutym 2004 roku. Nowa aktualizacja otrzymała nazwę Brandy. Indeks został znacznie rozszerzony. Możliwe to było dzięki Latent Semantic Indexing. Roboty wyszukiwarki zyskały większą umiejętność rozumienia wyrazów o podobnym znaczeniu, co przyczyniło się też do tego, że lepiej orientowały się w tematyce odwiedzanych witryn internetowych. Ta zmiana okazała się najbardziej wartościowa dla użytkowników. Przełożyła się bowiem na lepszą jakość wyników wyszukiwania, które były zwracane w odpowiedzi na zapytanie wpisane w wyszukiwarkę. To jednak nie jest jedyne usprawnienie, jakie wprowadziła ta aktualizacja. Kolejna innowacja tyczyła się linków prowadzących do strony. Od tej pory istotne stało się to, aby anchor powiązany z linkiem współgrał również z treścią strony, na którą użytkownik miał zostać przekierowany.

Rok 2005 - Burbon, Gilligan, Jagger, Big Daddy
Kolejny rok przyniósł nowe aktualizacje algorytmu wyszukiwarki Google. Pierwsza z nich została wprowadzona w maju 2005 roku pod nazwą Burbon (nie chodzi jednak o alkohol, a o ulicę w Nowym Orleanie). W sieci pojawiły się wówczas informacje dotyczące tego, że gigant z Doliny Krzemowej szykuje 3,5 aktualizacji - co się pod tym kryło? Było to wielką zagwozdką. Sama aktualizacja przyczyniła się do napiętnowania zduplikowanych treści - dzięki takim działaniom, content oferowany użytkownikowi miał stać się o wiele bardziej wartościowy. Jak łatwo się domyślić, zmiana ta była zupełnie nie na rękę wielu właścicielom stron, którzy do tej pory niezbyt przywiązywali się do zamieszczania unikalnych artykułów. 

We wrześniu 2005 roku pojawiła się Gillian. Jest to o tyle ciekawa sprawa, że larum na wielką skalę podnieśli Webmasterzy, podczas gdy Google szło w zaparte, że żadna aktualizacja nie miała miejsca. Całe to zamieszanie spowodowało, że Gillian uznana została za fałszywy alarm, choć jak się wydaje, zmiany w rankingu były zauważalne. 

Następny miesiąc (październik 2005 roku) przyniósł kolejną aktualizację, tym razem została ona ochrzczona Jagger (tak, na cześć Micka Jaggera). Zmiany koncentrowały się na profilach linków prowadzących do stron internetowych. To kolejny cios, który odbił się mocno na serwisach pozyskujących masowo linki z nie do końca sprawdzonych źródeł. 

Big Daddy to ostatnia zmiana algorytmu, która została wdrożona w 2005 roku. Zaktualizowana została infrastruktura - roboty wyszukiwarki miały lepiej rozumieć kwestie takie jak na przykład przekierowania.

Rok 2007 - Buffy i Universal Search
Po dłuższej przerwie nastąpiło prawdziwe trzęsienie ziemi. Czerwiec 2007 roku przyniósł duże rewolucje w wynikach wyszukiwania. Nie uszły one oczywiście uwadze Webmasterów, choć Google całą sprawę skwitowało jedynie dosyć lakoniczną informacją, jakoby żadna duża zmiana w algorytmie wyszukiwarki nie została wprowadzona, a przetasowania w rankingu, które można było obserwować, były sumą drobniejszych zmian. Buffy swoją nazwę zawdzięcza pewnej pracownicy Google, która postanowiła w tym czasie opuścić szeregi firmy - była ona wielką fanką tego serialu.

Rok 2007 to jeszcze jedna zmiana, która znacznie poprawiła użyteczność tego narzędzia. W wynikach wyszukiwania pojawiły się takie kategorie jak aktualności, zdjęcia, wideo czy wiadomości, a wszystko to za sprawą Universal Search.

Rok 2008 - Dewey i Sugestie od Google
Tak jak w przypadku Buffy, także Dewey (wprowadzony w kwietniu 2008 roku) nie doczekał się oficjalnego potwierdzenia ze strony Google. Nie zmienia to jednak faktu, że zmiany w organicznych wynikach wyszukiwania były widoczne gołym okiem. Niektóre witryny dotychczas znajdujące się na wysokich pozycjach, spadły o kilkadziesiąt oczek w dół. Nie trzeba tłumaczyć, że dla wielu biznesów oznaczało to totalny spadek ilości odwiedzin.

W tym roku wdrożono jeszcze jedno rozwiązanie. Wpisując w pole wyszukiwania określone słowo, użytkownik zaczął otrzymywać szereg dodatkowych podpowiedzi powiązanych tematycznie z konkretną frazą. Wprowadzenie Sugestii od Google znane jest także pod anglojęzyczną nazwą Google Suggest.

Rok 2009 - Vince
Vince, który został wprowadzony w 2009, z pewnością ucieszył właścicieli wielkich marek. To one zyskały wówczas najbardziej. Nic dziwnego, że aktualizacja odbiła się szerokim echem, a największe oznaki niezadowolenia wypływały od przedstawicieli mniejszych firm. Jaki był cel takich działań? Google wyszło z założenia, że duże i rozpoznawalne marki biorą odpowiedzialność za treści umieszczane w serwisach internetowych. Dzięki temu użytkownik szukający informacji w sieci, może korzystać ze sprawdzonych źródeł. 

“Nowożytne” zmiany algorytmu wyszukiwarki Google
Pomimo że większość z wymienionych wyżej aktualizacji algorytmu Google znacznie przyczyniła się do zmiany wyników prezentowanych w SERP-ie, to spora część z nich odeszła w zapomnienie. Jeśli zapytać o opinię osoby związane ze światem SEO, to największe emocje wciąż budzą aktualizacje wprowadzane w czasach nam bliższych. One również mają swoje nazwy - i to całkiem przyjemne. Czy aktualizacja opublikowana pod nazwą Panda, Pingwin, Koliber czy Gołąb mogą siać postrach?

Rok 2011 – Aktualizacja Google Panda - rewolucja w wynikach wyszukiwania
Datą, którą z pewnością warto zapamiętać, jest 23 luty 2011 roku. To właśnie tego dnia dokonała się jedna z największych aktualizacji algorytmu wyszukiwarki Google. Wbrew domysłom wielu osób nazwa ta nie pochodzi od uroczego zwierzaka, lecz jest to nazwisko inżyniera, który opracował zmiany. 

Jakie zmiany przyniosła Panda? Większe, niż ktokolwiek mógł się spodziewać. Na samo wspomnienie o tej aktualizacji, wielu właścicielom stron internetowych oraz osobom związanym ze światem SEO wciąż jeży się włos na głowie. Celem aktualizacji była walka z witrynami, które prezentowały niską jakość. Ucierpiały wszystkie te serwisy niestosujące się do wytycznych rekomendowanych przez Google. Były jednak też i takie strony, które na wprowadzanych zmianach znacznie zyskały. Od czego zależało, czy dany serwis internetowy otrzymał karę, czy też jego pozycje w organicznych wynikach wyszukiwania znacznie wzrosły?

Kluczem otwierającym skrzynkę z odpowiedzią na to pytanie okazuje się jakość strony internetowej oraz jej współgranie z wytycznymi Google. Ukarane zostały serwisy duplikujące content oraz takie, które nie oferowały użytkownikom wartościowych treści. Wdrażając tę aktualizację, Google postanowiło rozprawić się także z witrynami przesyconymi frazami kluczowymi. Przed Pandą niezwykle popularne było upychanie w tekście słów kluczowych, wszędzie, gdzie to tylko było możliwe. Przez takie działania, zawartość dostępna na stronach internetowych stawała się słabo przyswajalna dla przeciętnego użytkownika. 

Jakie serwisy mogły liczyć na wzrost pozycji w organicznych wynikach wyszukiwania? Dodatkowe punkty w rankingu zanotowały witryny, na których użytkownik mógł znaleźć unikalny i wartościowy content. Im bardziej rozbudowana była strona internetowa, im więcej szczegółowych informacji zawierała, tym miała szansę na wyższą punktację.

Rok 2012 – Aktualizacja Page Layout - ocena struktury serwisu internetowego
Przy ocenie serwisu coraz większe znaczenie zaczęło mieć to, czy jest on atrakcyjny dla użytkownika. Strona powinna mieć odpowiedni układ, tak aby internauta mógł się po niej poruszać w sposób całkowicie swobodny. Zmiana wprowadzona w 2012 roku miała promować serwisy, które nie są przesycone treściami reklamowymi. Użytkownik, który po wejściu na stronę, jest “atakowany” przez dużą ilość reklam czy treści nie niosących żadnej użyteczności, z pewnością szybko opuści taki serwis. Po wprowadzeniu zmian, roboty wyszukiwarki zaczęły większą uwagę przykładać do treści, jakie są prezentowane bezpośrednio po załadowaniu się witryny. Szczególny nacisk położony został na obszar, który w języku angielskim nosi nazwę above the fold.

Aktualizacja Pirat - bitwa o ochronę praw autorskich
Jeszcze nie tak dawno, prawdziwą plagą było zamieszczanie w serwisach internetowych treści chronionych przez prawa autorskie. Udostępniane były często bez wiedzy i zgody autorów. Google, chcąc ograniczyć łamanie prawa, wprowadziło w sierpniu 2012 roku kolejną aktualizację algorytmu, tym razem pod nazwą Pirat. Największe straty poniosły te strony, na których nielegalnie udostępniane były filmy czy muzyka.

Pirat dał konkretny oręż do walki właścicielom praw autorskich, którzy chcieli się zatroszczyć o to, aby wreszcie ukrócić nielegalne praktyki. Pojawiła się bowiem możliwość zgłaszania serwisów, w których są nielegalnie umieszczane materiały chronione prawami autorskimi do usunięcia z indeksu. Aktualizacja Pirata weszła w życie w 2014 roku. 

Rok 2013 – Aktualizacja Koliber - aby lepiej rozumieć potrzeby użytkownika
Aktualizacja, która znana jest pod nazwą Koliber, została wdrożona w 2013 roku. Zmiany, jakie zostały wówczas wprowadzone, miały spowodować, aby wyszukiwarka jeszcze dokładniej rozumiała intencje użytkownika wpisującego określone frazy. Dzięki Kolibrowi, zapytanie kierowane przez internautę, analizowane jest jako całość. Wcześniej analiza ta dotyczyła wszystkich wyrazów oddzielnie. Przez takie podejście, wyniki wyszukiwania mogły nie być precyzyjne. 

Koliber znany jest z szybkości i precyzji wykonywanych ruchów. Prawdopodobnie to właśnie te cechy małego ptaszka przesądziły o tym, że nowa aktualizacja zyskała właśnie taką, a nie inną nazwę. Po wdrożeniu tej aktualizacji wyniki miały lepiej posortowane. Skrócił się także czas oczekiwania na odpowiedź od wyszukiwarki.

Rok 2014 – Aktualizacja Payday Loan - walka ze spamem 
Aktualizacja Payday Loan pojawiała się w trzech odsłonach. Pierwsze zmiany w algorytmie zanotowano w czerwcu 2013, kolejne w maju 2014, a ostatni update przypadł na czerwiec 2014 roku. Kto ucierpiał najbardziej? Największe spadki w rankingu odnotowały zdecydowanie serwisy z branż takich jak szybkie pożyczki czy pornografia. Strony zawierające dużą ilość spamu, muszą się mieć od tej pory na baczności. 

Aktualizacja Pingwin - walka z linkami niskiej jakości
Drugą (poza Pandą) najbardziej rozpoznawalną aktualizacją algorytmu wyszukiwarki jest Pingwin. Został wprowadzony 24 kwietnia 2014. Na celownik wzięto tym razem profil linków prowadzących do stron internetowych. W oczach robotów układających ranking wyników wyszukiwania znacznie straciły te witryny, do których prowadziły linki cechujące się niską wartością. W jaki sposób wpłynęło to na zmiany pozycji witryn www?

Zanim została wprowadzona ta zmiana, wciąż jeszcze dużą popularnością cieszyły się farmy linków. Jednak przyszedł czas na to, aby się ostatecznie z nimi rozprawić. Od tej pory zdecydowanie większe znaczenie zaczęła mieć jakość prowadzących do strony odnośników, niż ich ilość. Jeżeli zatem chcesz, aby Twoja strona znalazła się na wysokich pozycjach w organicznych wynikach wyszukiwania, to postaraj się o to, aby zdobyć linki z wartościowych serwisów. Zadbaj także o ich dywersyfikację. Im bardziej zróżnicowane będą odnośniki, tym naturalniej będą się prezentowały. Tylko taki profil linków może przyczynić się do wzrostu pozycji w rankingu. Jeżeli pójdziesz ścieżka utartych schematów i zdecydujesz się na masowe zdobywanie odnośników, to jest spora szansa na to, że prędzej niż później, Twoja strona internetowa zostanie ukarana filtrem.

Na baczności muszą się mieć nie tylko te serwisy, które zdobywają linki marnej wartości. Podejrzane są też nagłe przyrosty ilości odnośników. Jeżeli profil linków wygląda nienaturalnie, to Google może podejrzewać, że doszło do jakichś manipulacji, a w takiej sytuacji nie ma litości - nakłada na stronę filtr powodujący ogromny spadek w naturalnych wynikach wyszukiwania. Filtr ten można na szczęście usunąć. Aby tego dokonać, trzeba dokładnie wyczyścić profil linków i zgłosić stronę do ponownego rozpatrzenia.

Gołąb - lepsze dopasowanie wyników lokalnych
Gołąb nadleciał mniej lub bardziej spodziewanie 24 lipca 2014 roku. Jaki cel został postawiony przed tą aktualizacją? Chodziło o to, aby uzyskać jeszcze lepiej dopasowane wyniki lokalne. Największą innowacją było połączenie czynników rankingowych naturalnych wyników wyszukiwania z czynnikami odpowiadającymi za tworzenie rankingu w mapach. Kto najbardziej skorzystał z tej aktualizacji? Zapewne ucieszyli się właściciele firm lokalnych. Odkąd nadleciał Gołąb, ich oferta mogła trafić do jeszcze większej liczby klientów z najbliższej okolicy. 

Jeżeli chcesz, aby Twoja strona poprawnie wyświetlała się w lokalnych wynikach wyszukiwania, musisz zadbać o to, aby umieścić na niej pełne dane adresowe. Warto także utworzyć oraz poprawnie skonfigurować wizytówkę Google Moja Firma, a także dopisać witrynę do katalogów biznesowych. Zanim jednak zdecydujesz się na umieszczenia strony w katalogu, sprawdź, czy cieszy się on dobrą opinią. Zamieszczanie informacji o firmie w szemranych miejscach może sprawić, że Twój serwis zanotuje spadek w organicznych wynikach wyszukiwania.

Rok 2015 – Aktualizacja Mobilegeddon - promocja stron dostosowanych do urządzeń mobilnych
Rok 2015 to czas, w którym rynek wyszukiwań mobilnych rozszalał się na dobre. Google postanowiło docenić potencjał drzemiący w urządzeniach przenośnych. 21 kwietnia 2015 roku świat ujrzał Mobilegeddon - najnowszą aktualizację algorytmu wyszukiwarki, która odpowiadała za to, aby w dodatkowy sposób promować te witryny, które mogą poszczycić się wersją dostosowaną do urządzeń mobilnych. Zmiany zostały wdrożone ze skutkiem natychmiastowym. 

Nazwa, nawiązująca do armagedonu, nie zwiastowała nic dobrego. Zapowiadało się ogromne trzęsienie ziemi, jednak jak się okazało po pewnym czasie, wstrząsy nie przybrały takiej siły, jakiej pierwotnie się spodziewano. Owszem, strony zoptymalizowane pod kątem urządzeń przenośnych odnotowały drobne wzrosty w organicznych wynikach wyszukiwania, jednak z zapowiadanym armagedonem miało to niewiele wspólnego. Co sprawiło, że zmiany w algorytmie nie były aż tak dotkliwe? Spora część właścicieli stron internetowych zdążyła już wcześniej zauważyć, że w statystykach dotyczących odwiedzin serwisów, coraz częściej pojawiają się użytkownicy korzystający ze smartfonów lub tabletów. Idąc za ciosem i nie chcąc stracić tak cennego ruchu (większość osób, które wejdą na stronę niedostosowaną do urządzeń mobilnych, bardzo szybko ją opuszcza, ponieważ w większości przypadków przeglądanie prezentowanych treści staje się ogromnym wyzwaniem) wdrożyli responsywne wersje swoich witryn.

Rok 2019 – Aktualizacja BERT - jeszcze lepsze rozumienie ludzkiego języka
Październik 2019 roku to aktualizacja algorytmu Google - co zmienił BERT w branży SEO i pozycjonowaniu? Zmiany wprowadzone w algorytmie wyszukiwania okazały się bardzo istotne. Może i nie wpłynęły znacząco na kolejność stron w rankingu, jednak niezwykle przyczyniły się zwiększenia dopasowania wyników wyszukiwania do intencji użytkowników.

BERT sprawił, że roboty wyszukiwarki są w stanie w jeszcze lepszy sposób zrozumieć język, jakim posługują się ludzie (dotyczy to zapytań wpisywanych w pole wyszukiwarki, a także zapytań głosowych). Rozumienie zależności pomiędzy poszczególnymi wyrażeniami to prawdziwy przełom. Do tej pory wyrażenia klasyfikowane jako stop words były pomijane przy dopasowywaniu wyników. Skutkiem tego, czasami zdarzało się, że wyniki otrzymywane przez użytkownika, były nie do końca takie, jakich się spodziewał.

Dokładność dopasowania wyników wyszukiwania do zapytań kierowanych przez internautów jest dla Google niezwykle istotna. W tej tematyce BERT to prawdziwy przełom. Co ważne - roboty zyskały umiejętność stałego rozwijania swoich kompetencji. 

Na jakie zmiany w algorytmie Google warto jeszcze zwrócić uwagę?
To jeszcze nie koniec zmian, którymi Google postanowiło w ostatnich latach zaskoczyć swoich użytkowników. Prócz aktualizacji, o których zrobiło się głośno (głównie za sprawą znacznych zmian w pozycjach stron internetowych, jakie następowały po ich wdrożeniu) jest jeszcze kilka zasługujących na uwagę. 

  • Indeks uzupełniający - Supplemental Index pojawił się dosyć wcześnie, bo już w 2003 roku. Na końcu strony z wynikami wyszukiwania znaleźć można strony zawierające informacje bardzo podobne do tych, które znajdują się w witrynach umieszczonych bezpośrednio w wynikach organicznych.
  • Personalizacja wyników wyszukiwania - aktualizacja Pesonalized Search miała uwzględniać wcześniejszą historię wyszukiwania użytkownika w celu lepszego dopasowania stron internetowych. Wdrożona została w 2005 roku.
  • Social Signal - aktualizacja z końcówki 2010 roku - roboty zaczęły uwzględniać w procesie układania rankingu serwisy o charakterze społecznościowym (zaliczają się do nich m.in Facebook oraz Twitter)
  • Wenecja - aktualizacja z 2012 roku pozwoliła na powiązanie wyświetlanych wyników wyszukiwania z lokalizacją, w jakiej aktualnie znajdował się użytkownik.
  • Exact-Match Domain Update - kolejna zmiana w algorytmie, która pojawiła się w 2012 roku. Zadziałała ona na niekorzyść stron, które w nazwie domeny miały wyrażenia kluczowe. Takie witryny spadły na niższe pozycje w organicznych wynikach wyszukiwania.
  • Certyfikacja SSL - bezpieczeństwo użytkowników to sprawa niezwykle istotna. Od 2014 większą szansę na lepsze pozycje w organicznych wynikach wyszukiwania mają te serwisy, które stosują dodatkowe zabezpieczenie w postaci protokołu https. HTTPS/SSL Update to ważna zmiana promująca bezpieczeństwo.
  • RankBrain - wprowadzony w 2015 roku update algorytmu umożliwił robotom lepszą interpretację fraz oraz powiązań, jakie między nimi występują.
Historia aktualizacji algorytmu wyszukiwarki Google jest długa i niezwykle zawiła. Jakimi przesłankami kieruje się Google, wprowadzając tak wiele zmian?

Dlaczego Google aktualizuje algorytm wyszukiwania?
Patrząc na historię zmian w algorytmach wyszukiwarki, które miały miejsce na przestrzeni ostatnich kilkunastu lat, można być pewnym tylko jednego - nikt nie wie, co przyniesie przyszłość. Można zadać pytanie dotyczące tego, dlaczego w ogóle Google decyduje się na nieustanne aktualizacje? Przecież każda taka zmiana wymaga ogromnego zaangażowania wielu specjalistów. 

Google aktualizując algorytm wyszukiwarki, stara się zapewnić użytkownikom wyniki wyszukiwania, które sprostają ich oczekiwaniom. Chodzi o to, aby internauta, po wpisaniu w pole wyszukiwarki określonego hasła, dostał w odpowiedzi wyłącznie te strony internetowe, na których znajdzie wartościowe treści. 

Historia wprowadzanych zmian jest dość długa. Każdej zmianie algorytmu przyświecał określony cel. Zmieniał się też sposób, w jaki roboty wyszukiwarki konstruowały ranking. W początkowym okresie, największe znaczenie przy układaniu rankingu stron znaczenie miała ilość odnośników prowadzących do witryny. Na tej podstawie ustalany był PageRank strony. Szybko się jednak zorientowano, że taki system daje ogromne pole do nadużyć. Kolejne aktualizacje algorytmu to była batalia z tzw. Black Hat SEO. Dzięki wprowadzanym zmianom, do historii przeszły takie metody manipulacji rankingiem, jak farmy linków czy keyword stuffing, choć wciąż zdarzają się pozycjonerzy, którzy (jak się wydaje) mentalnie pozostali jeszcze w poprzedniej epoce i w dalszym ciągu oferują swoim klientom takie sposoby na poprawę pozycji witryny - nie chcąc otrzymać bana od Google, lepiej trzymać się od takich osób z daleka.

Wraz z kolejnymi aktualizacjami coraz bardziej na znaczeniu zaczął zyskiwać content. Na to, jaką serwis zajmuje pozycję w organicznych wynikach wyszukiwania, wpływa jakość i ilość treści, które są w nim zamieszczone. Warto zatem inwestować w content dobrej jakości - przełoży się to na większą wartość, jaką strona będzie miała dla użytkowników, a także na lepsze pozycje w rankingu wyszukiwań naturalnych. 

Nic nie zapowiada tego, aby specjaliści z Google mieli zaprzestać wprowadzania kolejnych zmian w algorytmie wyszukiwarki. Co prawda, są one coraz rzadziej zapowiadane z dużym wyprzedzeniem i część z nich przechodzi zupełnie “bez echa” jednak pojawiają się na bieżąco i zmieniają sposób, w jaki roboty patrzą na strony internetowe i treści, jakie są na nich zamieszczone.

Co można zrobić, aby utrzymać wysokie pozycje w wynikach wyszukiwania, pomimo wprowadzanych zmian?
Za zmianami wprowadzanymi w algorytmie wyszukiwarki Google czasem trudno jest nadążyć, a jeszcze trudniejszym zadaniem wydaje się być odpowiednie przygotowanie na cios, który może nadejść praktycznie z każdej strony. Jak bowiem walczyć z przeciwnikiem, którego metody są dla nas wielką zagadką? Czy można w ogóle stworzyć stronę internetową odporną na zmiany algorytmu? Wydaje się, że po części jest to możliwe, a sprawę stara się ułatwić samo Google, które daje konkretne wskazówki w zakresie zasad tworzenia witryn internetowych, tak aby były one przyjazne dla użytkowników oraz robotów wyszukiwarki. Warto zaznaczyć, że coraz istotniejsza staje się zwłaszcza ta pierwsza kwestia. Google idzie w takim kierunku, aby na pierwszym miejscu stawiać użytkownika. Dobrze dopracowana strona internetowa powinna się zatem szybko ładować oraz musi zawierać interesujący content. 

Jeżeli zależy Ci na tym, aby Twoja strona nie otrzymywała kolejnych ciosów po tym, jak Google będzie wprowadzać nowe aktualizacje algorytmu wyszukiwania, to trzymaj się zaleceń Google, zrezygnuj z praktyk, które w oczach wyszukiwarki są niedozwolone, a także postaw na wartościowy content, z którego będą zadowoleni użytkownicy odwiedzający Twój serwis internetowy.
Powrót