Czy Google zamierza odłączyć swojego pingwina?

Opublikowany: 2022-06-12

Od redakcji, 6 października 2016 r.: Rzecznik Google, Gary Illyes, ogłosił to oficjalnie. Przepowiednia postawiona w tym poście przez Roberta Ramireza spełniła się wraz z aktualizacją Penguin 4.0 z września 2016 roku.

Linki nieorganiczne nie są negatywnym sygnałem w rankingu, ale są ignorowane w obliczeniach rankingu Google. Dlatego teoria tego artykułu jest obecnie faktem.

Zobacz rozmowę, w której Illyes wyjaśnia „obniżenie” kontra „dewaluacja”.

TL; DR – Teoria: następna aktualizacja Google Penguin całkowicie zabije spam linkami , eliminując sygnały związane z nieorganicznymi linkami zwrotnymi. Google będzie selektywnie przekazywać wartość linków w oparciu o aktualne znaczenie linkowanych witryn, co jest możliwe dzięki analizie semantycznej. Google nagrodzi linki organiczne, a być może nawet wzmianki z autorytatywnych witryn w dowolnej niszy. Efektem ubocznym będzie wyeliminowanie negatywnego SEO opartego na linkach oraz „penalizacji” pingwinów.

Czy Google zamierza zabić Pingwina?

Czy koniec spamu linków jest na nas?

Gary Illyes z Google niedawno poinformował o kolejnej aktualizacji Google Penguin. Wiele osób z branży SEO zwraca uwagę na to, co mówi:

  1. Aktualizacja Penguin zostanie wydana przed końcem 2015 roku. Ponieważ od ostatniej aktualizacji minął ponad rok, byłoby to mile widziane wydanie. (Od redakcji z 7 grudnia 2015 r.: Od czasu publikacji rzecznik Google powiedział: „W związku z nadchodzącymi świętami wygląda na to, że pingwiny nie będą maszerować do przyszłego roku”).
  2. Następny Penguin będzie wersją algorytmu „w czasie rzeczywistym”.

Wiele osób przewiduje, że gdy Penguin zostanie włączony do standardowego algorytmu rankingowego, ranking spadnie i wzrośnie w czasie zbliżonym do rzeczywistego, ponieważ Google uzna negatywne i pozytywne sygnały w linkach zwrotnych. Przypuszczalnie obejmowałoby to bardziej natychmiastowy wpływ przesłanych plików dezawuujących — narzędzia, które było przedmiotem wielu debat w branży SEO.

Ale co, jeśli plan Google polega na całkowitej zmianie sposobu działania Penguin? Co by było, gdybyśmy żyli w świecie, w którym nieorganiczne linki zwrotne nie karzą witryny, ale są po prostu ignorowane przez algorytm Google i nie oferują żadnej wartości? Co by było, gdyby następna iteracja Penguin, ta, która ma działać jako część algorytmu, jest w rzeczywistości okazją Google do całkowitego zabicia algorytmu Penguin i zmiany sposobu, w jaki postrzegają linki , wykorzystując swoją wiedzę na temat autorytetów i związków semantycznych w sieci? ?

My w Bruce Clay, Inc. dotarliśmy do tej teorii po wielu dyskusjach, przypuszczeniach i, jak każda dobra firma SEO, inżynierii wstecznej. Zacznijmy od głównych problemów, które miała rozwiązać kara Penguin, prowadząc do naszej hipotezy, w jaki sposób nowo zaprojektowany algorytm poradziłby sobie z nimi skuteczniej.

Praca wstecz: problemy z pingwinem

Ze wszystkich zmian algorytmicznych mających na celu zwalczanie spamu internetowego kara Penguin była najbardziej problematyczna zarówno dla webmasterów, jak i dla Google.

Jest to problematyczne dla webmasterów, ponieważ trudno jest wydostać się z otchłani. Gdyby niektórzy webmasterzy wiedzieli, jak trudno byłoby odzyskać kary Penguin, które rozpoczęły się w kwietniu 2012 r., mogliby zdecydować się na usunięcie swoich witryn i zacząć od zera. W przeciwieństwie do ręcznych kar za spam internetowy, w których (jak nam powiedziano) pracownik Google przegląda przycinanie linków i zrzeka się pracy z plikami, działania algorytmiczne są uzależnione od odświeżenia algorytmu przez Google, aby zobaczyć odzyskiwanie. Odświeżenia miały miejsce tylko cztery razy od czasu uwolnienia oryginalnej kary Penguin, co sprawiało, że okazje do skruchy były nieliczne i bardzo rzadkie.

Penguin był problematyczny dla Google, ponieważ ostatecznie kary Penguin i ich wpływ na firmy zarówno duże, jak i małe były koszmarem PR dla wyszukiwarki. Wielu twierdzi, że Google może mniej dbać o negatywne nastroje wśród społeczności zajmującej się marketingiem cyfrowym (w szczególności SEO), ale gniew wobec Google nie kończy się na tym; wiele głównych publikacji głównego nurtu, takich jak The Wall Street Journal, Forbes i CNBC, zawiera artykuły, które podkreślają penalizację Penguin i jej negatywny wpływ na małe firmy.

Radzenie sobie ze spamem linków i negatywnymi problemami SEO

Ze względu na skuteczność, jaką budowanie linków miało przed 2012 r. (i do pewnego stopnia od tego czasu), Google ma do czynienia z ogromnym problemem spamowania linkami. Wyjaśnijmy to jasno; Google stworzył tego potwora, gdy w pierwszej kolejności nagrodził linki nieorganiczne. Przez dłuższy czas link building działał jak urok. Jeśli mogę pożyczyć cytat od mojego szefa, Bruce'a Claya: „Stary sposób myślenia polegał na tym, że wygrywa ten, kto umiera z największą liczbą linków”.

Ta taktyka była tak skuteczna, że ​​dosłownie zmieniła oblicze Internetu. Spam blogowy, spam w komentarzach, strony typu scraper – żadna z nich nie istniałaby, gdyby algorytm Google przez dłuższy czas nie nagradzał zdobywania linków (niezależnie od źródła) wyższymi rankingami.

czarny kaptur
Negatywne SEO: problem, który według Google nie istnieje, podczas gdy wiele udokumentowanych przykładów wskazuje na coś przeciwnego.

Do tego dochodzi negatywne pozycjonowanie — problem, o którym mówi Google, nie jest problemem, podczas gdy istnieje wiele udokumentowanych przykładów wskazujących na coś innego. Google wypuściło nawet narzędzie disavow, zaprojektowane częściowo w celu rozwiązania negatywnego problemu SEO, któremu zaprzeczają, że istnieje.

Algorytm Penguin, mający na celu rozwiązanie pierwotnych problemów Google ze spamem linków, nie jest w stanie rozwiązać problemu spamu linków; kiedy dodasz do tego ból głowy związany z PR, jakim stał się Penguin, możesz argumentować, że Penguin był straszną porażką, ostatecznie powodując więcej problemów, niż rozwiązał. Biorąc wszystko pod uwagę, Google jest bardzo zmotywowany do ponownego przemyślenia sposobu obsługi sygnałów linków. Mówiąc prościej, muszą zbudować lepszą pułapkę na myszy – a premiera „nowego pingwina” jest okazją do tego.

Rozwiązanie: pingwin na nowo

Biorąc pod uwagę te problemy, co ma zrobić zbiór doktorów w Mountain View w Kalifornii? Co by było, gdyby zamiast nadzorować spamerów, mogliby zmienić zasady i całkowicie zdyskwalifikować spamerów z gry?

Zmieniając swój algorytm, aby nie karać ani nie nagradzać linków nieorganicznych, Google może za jednym zamachem rozwiązać problem z linkami raz na zawsze. Motywacja do budowania linków spamerskich zostałaby usunięta, ponieważ po prostu przestałaby działać. Negatywne SEO oparte na budowaniu spamerskich linków zwrotnych do konkurencji przestanie działać, jeśli linki nieorganiczne przestaną przekazywać negatywne sygnały zaufania.

Zdefiniowane technologie wyszukiwarek

Wykres wiedzy, Koliber i RankBrain — Oh My!

Co to jest Graf wiedzy?
Graf wiedzy to baza danych Google zawierająca semantyczne fakty dotyczące osób, miejsc i rzeczy (zwanych podmiotami ). Graf wiedzy może również odnosić się do obszaru w ramce na stronie wyników wyszukiwania Google, w którym wyświetlane są informacje podsumowujące o jednostce.

Co to jest Koliber Google?
Google Hummingbird to nazwa algorytmu wyszukiwania Google. Został uruchomiony w 2013 roku jako modernizacja silnika obsługującego wyniki wyszukiwania, umożliwiająca Google zrozumienie znaczenia słów i relacji między synonimami (zamiast dopasowywania wyników do słów kluczowych) oraz przetwarzanie zapytań konwersacyjnych (w stylu mówionym).

Co to jest RankBrain?
RankBrain to nazwa technologii sztucznej inteligencji Google wykorzystywanej do przetwarzania wyników wyszukiwania za pomocą funkcji uczenia maszynowego. Uczenie maszynowe to proces, w którym komputer sam się uczy, zbierając i interpretując dane; w przypadku algorytmu rankingowego algorytm uczenia maszynowego może zawęzić wyniki wyszukiwania na podstawie informacji zwrotnych z interakcji użytkownika z tymi wynikami.

To, co uniemożliwia firmie Google osiągnięcie tego, wymaga umiejętności dokładnego osądzenia, które linki są odpowiednie dla dowolnej witryny lub, w zależności od przypadku, tematu. Rozwijanie tej umiejętności oceny trafności linków jest łatwiejsze do powiedzenia niż do zrobienia, mówisz – i zgadzam się. Jednak patrząc na najnowsze zmiany wprowadzone przez Google w swoim algorytmie, widzimy, że podstawy dla tego typu ram algorytmicznych mogą już istnieć. Właściwie można by wywnioskować, że Google już od dłuższego czasu pracuje nad tym rozwiązaniem.

Sieć semantyczna, koliber i uczenie maszynowe

Jeśli nie zauważyłeś, firma Google dokonała znacznych inwestycji w celu lepszego zrozumienia relacji semantycznych między podmiotami w sieci.

Wraz z wprowadzeniem Grafu wiedzy w maju 2012 r., uruchomieniem Hummingbird we wrześniu 2013 r. i niedawnym potwierdzeniem algorytmu uczenia maszynowego RankBrain, firma Google dokonała ostatnio ogromnego postępu w zakresie rozpoznawania związków między obiektami i ich atrybutami .

Google rozumie relacje semantyczne, analizując i wyodrębniając dane z istniejących stron internetowych oraz wykorzystując informacje z zapytań używanych przez wyszukiwarki w swojej wyszukiwarce.

Algorytm wyszukiwania Google od dłuższego czasu staje się „mądrzejszy”, ale o ile nam wiadomo, te postępy nie są stosowane do jednego z podstawowych sygnałów rankingowych Google – linków zewnętrznych. Nie mamy powodu podejrzewać, że główne założenia PageRank zmieniły się od czasu ich wprowadzenia przez Sergeya Brina i Larry'ego Page'a w 1998 roku.

Dlaczego nie teraz?

Co by było, gdyby Google mógł wykorzystać swoje semantyczne rozumienie sieci nie tylko do identyfikowania relacji między słowami kluczowymi, tematami i motywami, ale także relacji między witrynami, które je omawiają? Teraz zrób krok dalej; czy jest możliwe, że Google może określić, czy link powinien przekazywać kapitał (sok linków) swojemu celowi w oparciu o trafność tematu i autorytet?

Bill Slawski, czołowy analizator patentów Google w branży SEO, napisał niezliczoną ilość artykułów na temat sieci semantycznej, szczegółowo opisując proces Google do wyodrębniania i kojarzenia faktów i jednostek ze stron internetowych. To fascynująca (i skomplikowana) analiza, która ma duże implikacje dla SEO.

Dla naszych celów nieco uprościmy. Wiemy, że Google opracował metodę zrozumienia podmiotów i ich relacji z określonymi stronami internetowymi. W tym przypadku byt to „konkretnie nazwana osoba, miejsce lub rzecz (w tym idee i obiekty), które mogą być połączone z innymi bytami w oparciu o relacje między nimi”. Brzmi to bardzo podobnie do algorytmicznego podnoszenia ciężaru, które należałoby zrobić, gdyby Google zamierzało wykorzystać swoją wiedzę na temat wiarygodności witryn internetowych w analizie wartości linków zwrotnych na podstawie ich trafności i autorytetu w stosunku do tematu.

Wyjście poza linki

SEO są bardzo skoncentrowane na linkach zwrotnych i nie bez powodu; badania korelacji, które analizują czynniki rankingowe, nadal oceniają jakość linków zwrotnych jako jeden z głównych czynników wpływających na ranking Google. To właśnie ta korelacja zapoczątkowała napływ nieorganicznych połączeń, które wylądowały w naszym obecnym stanie rzeczy.

Ale co by było, gdyby Google mógł wyjść poza tworzenie lub zdobywanie linków do modelu, który również nagradzał wzmianki z autorytatywnych witryn w dowolnej niszy? Deprecjonowanie linków, przy jednoczesnym nagradzaniu referencji z odpowiednich źródeł, rozszerzyłoby sygnały, na których Google polegał, aby ocenić trafność i autorytet, i pomogłoby odsunąć ich zależność od linków jako czynnika rankingowego. Przypuszczalnie trudniej byłoby też „zagrać”, ponieważ prawdziwe autorytety w jakiejkolwiek dziedzinie raczej nie odwołują się do marek lub witryn, które nie były warte wzmianki.

To jest ważna kwestia. W obecnym środowisku strony internetowe mają bardzo małą motywację do łączenia się ze źródłami zewnętrznymi. To był problem, którego Google nigdy nie był w stanie rozwiązać. Władze nigdy nie były zmotywowane do łączenia się z potencjalnymi konkurentami, a brak linków organicznych w niszach doprowadził do klimatu, w którym kupowanie i sprzedawanie linków może wydawać się jedyną realną opcją pozyskiwania linków dla niektórych stron internetowych. Po co ograniczać przejście kapitału linków do hiperłącza? Czy wzmianka od prawdziwego autorytetu nie jest równie silnym sygnałem?

Ta koncepcja jest zdecydowanie precedensowa. „Co-occurrence” i „co-citation” to terminy używane przez SEO od lat, ale Google nigdy nie potwierdził, że są one czynnikami rankingowymi. Ostatnio jednak Google zaczął umieszczać wzmianki o niepowiązanych linkach w raporcie „najnowszych linków” w Search Console. John Mueller wskazał w serii tweetów, że Google faktycznie zbiera wzmianki o adresach URL z tekstu, ale te wzmianki nie przekazują PageRank.

Godne uwagi jest to, że Google nie tylko monitoruje wzmianki o domenie wyłącznie tekstowe, ale także łączy te wzmianki z domeną, do której się odnoszą. Jeśli Google może połączyć kropki w ten sposób, czy mogą one rozszerzyć się poza adresy URL, które pojawiają się jako tekst na stronie, również na odniesienia do jednostek? Może te same odniesienia, które uruchamiają Graf wiedzy Google?

W podsumowaniu

Stworzyliśmy przypadek oparty na wielu przypuszczeniach i przypuszczeniach, ale z pewnością mamy nadzieję, że jest to kierunek, w którym Google podąża swoim algorytmem. Niezależnie od tego, czy Google to potwierdza, czy nie, problem ze spamem linków nie został jeszcze rozwiązany. Kary pingwinów mają charakter represyjny i są niezwykle trudne do uniknięcia, a faktem jest, że karanie przestępców nie rozwiązuje problemu u jego źródła. Motywacja do budowania nieorganicznych linków zwrotnych będzie istnieć tak długo, jak będzie postrzegana jako skuteczna. Zgodnie z obecnym algorytmem możemy spodziewać się, że nadal będziemy widzieć podejrzanych SEO sprzedających olej węża i niczego niepodejrzewających firm, które zostaną ukarane.

Najlepszą opcją Google jest usunięcie negatywnych sygnałów dołączanych do linków nieorganicznych i nagradzanie tylko tych linków, które uznają za istotne. W ten sposób natychmiast wypatrują twórców linków spamowych, których jedyną szybką, skalowalną opcją tworzenia linków jest umieszczanie ich na stronach internetowych, które mają niewielką lub żadną wartość.

Dostosowując swój algorytm, aby nagradzać tylko linki, które mają fachowość, autorytet i zaufanie w odpowiedniej niszy, Google może zbliżyć się bardziej niż kiedykolwiek do rozwiązania problemu ze spamem linków.

Od redakcji, 7 grudnia 2015 r.: 3 grudnia dowiedzieliśmy się, że pomimo wcześniejszych komentarzy Google, które sugerowały inaczej, kolejna aktualizacja Penguin nie nastąpi przed końcem roku. Zaktualizowaliśmy ten artykuł, aby to odzwierciedlić.