”Naszą misją jest uporządkowanie światowych zasobów informacji tak, by stały się powszechnie dostępne i użyteczne dla każdego.”
W tych słowach, zamieszczonych w zakładce Google, opisującej samą firmę i jej przedsięwzięcia (https://about.google/), odnajdujemy siłę i powód, dla którego to właśnie ta przeglądarka wiedzie prym, wśród konkurencji. I nie jest to jakaś chwiejna przewaga. Przeglądając rankingi, można zauważyć, że wszyscy konkurenci giganta z Mountain View razem wzięci, stanowią od 4 do 6 procent udziału rynku.
Przyjrzyjmy się powyższym słowom. Przed Google przeglądarki owszem, zbierały informacje, niestrudzenie przeszukując internet i indeksując strony. Wpisując daną frazę, można było się spodziewać, że trafimy na stroną w mniej lub bardziej powiązany sposób z nią związany, jeśli nie na pierwszej stronie wyników, to może na kolejnej. W tamtych czasach serwisy tego typu zarabiały na reklamach na głównej stronie. Sam mechanizm wyszukiwania nie był skomplikowany i trzeba było się dobrze naszukać w wynikach, aby znaleźć stronę, która będzie odpowiadała naszemu zapytaniu.
Google zmieniło wszystko, faktycznie porządkując informacje. Skupiło się nie tylko na zdobywaniu informacji, ale również jej odsiewaniu, tak aby przepuszczać przez filtry w pierwszej kolejności te wyniki, które najlepiej sprostają naszym oczekiwaniom. I cokolwiek by nie powiedzieć, wychodzi mu to doskonale.
W poniższym tekście pragnę przybliżyć w jaki sposób Google pozycjonuje wyniki. Powinno być to ważne dla tych z Państwa, którzy prowadzą własną działalność i chcą, aby potencjalni klienci, skłonni skorzystać z usług firmy z Państwa branży, w oknie z wynikami zobaczyli stronę Państwa firmy.
Oczywiście, algorytmy Google w większości są tajne, jest ich bardzo dużo i co chwilę są zmieniane. Jednak już to, co firma oficjalnie udostępniła jako ogólne zasady pozycjonowania stron, daje nam obraz tego, w jaki sposób działa (w ogólnym zarysie) oraz pozwala dostrzec, jak dużą pracę należy włożyć, aby to właśnie nasza strona była tą, którą odwiedzi internauta, korzystający z jej usług.
PageRank
Powstał w 1998 roku, w zasadzie wraz z samą przeglądarką. Larry Page ochrzcił go swoim nazwiskiem, a Uniwersytet Stanforda go opatentował. W tym miejscu chciałbym oddzielić PageRank jako algorytm oraz narzędzie PageRank, wbudowywane w pasek funkcyjny przeglądarki. Jest to bardzo ważne, ponieważ budzi sporo kontrowersji i prowadzi do absurdalnych stwierdzeń jak to, że PageRank nie już nie istnieje, a jednocześnie Google dalej się nim posługuje(?!).
Od początku. PR był pierwszym oficjalnym wskaźnikiem, który mówił nam, która strona jest bardziej wartościowa dla Google. Panowie z Mountain View przenieśli do internetu zasadę mówiącą, że informacja jest tym wiarygodniejsza im więcej ludzi ją cytuje. Ponadto bardziej wzbudza zaufanie informacja, przekazywana przez osobę zaufaną, autorytet. Czyli strona miała była wyżej punktowana im więcej stron do niej linkowało, a z kolei sama moc linku była zależna od źródła, z którego pochodziła. Czyli strona X, do której linkowało 10 stron o PR równym 1, miała więcej punktów niż strona Y do, której linkowało 8 stron o takim samym PR. Natomiast, jeżeli strony, linkujące do strony Y osiągnęły PR powiedzmy 3, to ta strona wygrywała, pomimo mniejszej ilości linków. Z założenia bardzo miarodajny sposób do oceniania zawartości strony. Jeśli przyjmiemy, że wszyscy ludzie na świecie są uczciwi. Przyjmiemy? ;)
Google udostępniło narzędzie, które informowało o PR danej strony, co bardzo ułatwiło pracę nad pozycjonowaniem i podnoszenie jakości z jednej strony, a z drugiej szerokie pole do popisu dla ludzi, którym zależało jedynie na zysku. Były różne sposoby na oszukiwanie rankingu, ale podstawowy sprowadzał się do jednego. Do strony właściwej budujemy setki innych podstron, których nie przeczyta nikt prócz botów Google i z nich do niej linkujemy. W internecie jak grzyby po deszczu zaczęły na zamówienie powstawać strony, które niczego sobą nie wnosiły. Z kolei strony do których linkowano i uzyskiwały w ten sposób wysoką punktację były przedmiotem handlu linkami na aukcjach internetowych, jako źródła do podnoszenia wartości jakiejś innej stronie.
Zaśmiecano internet, co było odwrotne do tego, z jakich założeń powstał PR. Żeby to ukrócić, w 2013 przestano aktualizować narzędzie, które pokazywało punktację RP na stronach, a w 2016 je wycofano. Choć sam PageRank algorytm jest wciąż używany przez Google jako jeden z algorytmów wewnętrznych firmy.
Panda
Algorytm ten ujrzał światło dzienne w 2011 roku. Narodził się z potrzeby dania odporu nieetycznym działaniom webmasterów, w szczególności tworzeniu tak zwanych farm treści. Tworzenie takich farm polegało na umieszczano na witrynie bardzo dużo podstron z treścią. Teksty kopiowano z innych serwisów lub zlecano pisanie innym za niskie stawki (w Stanach średnia cena takiego tekstu wynosiła ok. 3,5 dolara). Nie liczono się oczywiście z jakością stron, ważne było, aby witryna była na tyle „wszechstronna”, aby odpowiadała na zapytania jak największej ilości internautów. Umieszczano również na niej mnóstwo linków i podstrony, które linkowały w obrębie jednej witryny. Jednym słowem wszystko, aby oszukać Google, idąc na ilość. Tworzono je w celu otrzymywania wynagrodzenia z reklam, których z reguły było jeszcze więcej niż treści. Takie wyniki były najczęściej mało przydatne, nie stanowiły wielkiej wartości, ponadto obniżały w rankingu strony dużo mniejsze, ale bardziej treściwe, zatem zgodnie z deklaracją Larry'ego i Brina, musiały zostać zdeklasowane.
Panda obniżała pozycję za słabej jakości content, czyli mało treściwe teksty (tak zwane lanie wody pod wierszówkę), błędy gramatyczne i ortograficzne, artykuły nie wnoszące za wiele do tematu. Karano treści nieoryginalne oraz zapchane zbyt dużą ilością reklam.
Na farmach treści zarabiało się naprawdę duże pieniądze, proszę więc sobie wyobrazić rozpacz ich twórców, kiedy Google znajdowała jedną wadliwą podstronę i automatycznie karało cały serwis. Oczywiście, dla użytkowników wyszukiwarki było to duże udogodnienie. Panda wyeliminowała konieczność długotrwałego błądzenia po farmach w celu wyszukiwania interesujących nas zagadnień.
Pingwin
Kolejny po Pandzie bat na spamerów. W czasach funkcjonowania giełd linków, istniały narzędzia, które w niebywale krótkim czasie linkowały do naszej strony nawet po kilkaset innych witryn. Pingwin miał za zadanie piętnować serwisy, do których przyrost linków pojawiał się w bardzo szybkim czasie, niemożliwym przez naturalny sposób zdobywania popularności strony wśród internautów. Oberwało się również tym, do których linkowanie pochodziło ze stron sztucznych, niskiej jakości, tworzonych specjalnie w tym celu.
Odwrotnie również zwalczał same strony, które same w sobie stały się jednym wielkim linkiem. To znaczy strony, które zamieszczały bełkotliwe treści, w których zatapiano linki do innych stron internetowych. Był to bardzo duży krok w celu wyeliminowania ludzi, pozycjonowali w tak zwanych "czarnych kapeluszach", jako że linkowanie i sztuczne zawyżanie wartości strony, były w owym okresie jednym z głównych, niechlubnych sposobów promowania stron internetowych.
Koliber
Założeniem tekstu miał być opis jedynie tych algorytmów, czy aktualizacji, które wpływały na walkę z nieuczciwym pozycjonowaniem stron, lub przynajmniej przyczyniły się do zmiany pracy webmasterów. Koliber raczej do nich nie należy, ale jest na tyle ważny, że czuję się w obowiązku poświęcenia mu kilku zdań.
Wyobraźmy sobie nie jeden z algorytmów, ale ich zbiór. Na pozycjonowanie wyników miały wpływ PageRank, Panda, Pingwin i wiele innych (np. algorytm przeznaczony do walki z piractwem). Ten zbiór nazwijmy Algorytmem1.0, Koliber można by nazwać jego następcą Algorytmem2.0.
W kolibrze również znajdował się algorytm Pandy, PageRanku i wielu innych. Różnica polegała na tym, że Google nauczyło się rozpoznawać wieloznaczność wyrazów w kontekście wpisanej frazy. Tworzył większą interakcję z użytkownikiem, potrafiło nie tylko wyszukać najtrafniejsze odpowiedzi, ale w pewnym stopniu doradzić osobie szukającej odpowiedzi.
Przykład:
Wpisując „sposoby na kładzenie kasetonów w domu” nie byliśmy odsyłani jedynie do poradników opisujących sam proces, ale również do stron, na której zamieszczane są opinie o kasetonach w ogóle. Może się okazać, że Google „odradzi nam” tą technikę, bo wskaże stronę, na której jasno padnie stwierdzenie, że jest takie wykończenia są przestarzałe i zaproponuje na przykład podwieszany sufit z ledami, albo zaproponuje fachowca, który zrobi to zapewne o wiele lepiej od nas, co zostanie potwierdzone certyfikatami na jego stronie.
Wyszukiwanie stało się prostsze, ponieważ serwis lepiej reagował na zadawanie mu bezpośrednich pytań, a także rozumiał, że nie zawsze zapytujemy wprost o to, czego chcielibyśmy się faktycznie dowiedzieć.
Gołąb
Do zwierzyńca dołączył algorytm, który miał za zadanie promować firmy lokalne. Zacieśnił powiązanie wyników wyszukiwania z Mapami Google. Od tej pory, jeśli wpisywaliśmy frazę „fryzjer”, były większe szanse na to, że wyświetli nam się strona najbliższego zakładu fryzjerskiego, o ile są na niej podane poprawne dane adresowe oraz o ile adres zakładu jest odpowiednio wyeksponowany w sieci.
Lokalizację fryzjera, który nas zapewne interesuje Google pozyskuje poprzez analizę naszych wcześniejszych zapytań. Jest też w stanie łączyć geograficznie zakłady fryzjerskie, które nie znajdują się bezpośrednio w naszej miejscowości, ale na przykład są do niej bardzo zbliżone (na przykład podmiejska miejscowość).
Aktualizacje i nowe algorytmy w świecie pozycjonowania stron.
Oczywiście nie pisałem tu o wszystkich znanych algorytmach, ani o ich aktualizacjach, bo musiałbym napisać książkę. Wystarczy powiedzieć, że każda potwierdzona przez Google zmiana w algorytmach budzi wielkie emocji w branży. Webmasterzy chcą wiedzieć przede wszystkim, czy faktycznie nastąpiła aktualizacja algorytmu (firma raz potwierdza, raz zaprzecza, a innym razem w ogóle nie odpowiada) i przede wszystkim, co zrobić, jeśli moja strona znacząco spadła w wynikach. W czasach, kiedy wchodziła Panda i Pingwin, Google jasno opisywało, w jaki sposób będzie działał algorytm, zapewne w celu ostrzeżenia przed tak widocznymi próbami przekłamania wyników, jak na przykład farmy treści. Od tamtej pory, gdy zdesperowani twórcy stron pytają „co zrobiłem źle, czego się wystrzegać po ostatniej aktualizacji?”, Google zwykle odpowiada aby po prostu w dalszym ciągu być skoncentrowanym na budowaniu doskonałej treści swoich stron.
Podsumowanie
Nie jest tak, że Państwa stronie nie można już pomóc, ponieważ Google przejrzał wszystkie sztuczki pozycjonowania i teraz o tym, ile osób wejdzie na Państwa stronę jest zależne od losu. Pozycjonowanie istnieje i ma się dobrze, a nawet bardzo dobrze, bo zmiany w algorytmach odsiało z rynku dużą grupę ludzi pracujących w tak zwanych „czarnych kapeluszach”, siejących spam i dezinformację w celu uzyskania zysków.
Koncern nie walczy z pozycjonowaniem jako takim i nie ma nic przeciwko conent marketingowi. Zależy im jedynie na wysokiej jakości stron w internecie. Na wyszukiwaniu faktycznie najtrafniejszych wyników, polecaniu najlepszych specjalistów i fachowców. Jeżeli dostosujemy się do reguł Google, a nie będziemy za wszelką cenę je łamać, to będziemy w stanie wypozycjonować stronę do najwyższych miejsc na listach wyszukiwań bez konieczności wykupywania płatnych reklam w Google Ads.
Musimy jednak włożyć w to wiele wysiłku i dbać przede wszystkim o jakość. Mam przez to na myśli odpowiednią treść, układ strony, grafikę, reklamowanie się poprzez fora, społeczności i wiele innych narzędzi, które są mojej firmie doskonale znane. Korzystając z naszych usług, przenoszą Państwo cały trud tworzenia skutecznej kampanii reklamowej w sieci na nas, a my chętnie podejmujemy się wyzwań, które stawiają przed nami nasi klienci.