Google собирается отключить своего Penguin?

Опубликовано: 2022-06-12

Примечание редактора, 6 октября 2016 г.: официальный представитель Google Гэри Иллиес сделал это официально. Предсказание, изложенное в этом посте Робертом Рамиресом, сбылось с обновлением Penguin 4.0 в сентябре 2016 года.

Неорганические ссылки не являются негативным сигналом ранжирования, а вместо этого игнорируются при расчете рейтинга Google. Таким образом, теория этой статьи в настоящее время остается фактом.

Просмотрите беседу, в которой Иллиес разъясняет «понижение» и «обесценивание».

TL; DR — Теория: следующее обновление Google Penguin полностью уничтожит ссылочный спам , устранив сигналы, связанные с неорганическими обратными ссылками. Google будет выборочно передавать ссылочный вес на основе актуальности связанных сайтов, что стало возможным благодаря семантическому анализу. Google будет вознаграждать органические ссылки и, возможно, даже упоминания с авторитетных сайтов в любой нише. В качестве побочного эффекта будут устранены негативное SEO на основе ссылок и «штрафы» Penguin.

Google собирается убить Penguin?

Конец ссылочного спама?

Гэри Иллис из Google недавно сделал запись о следующем обновлении Google Penguin. То, что он говорит, многие в индустрии SEO принимают к сведению:

  1. Обновление Penguin будет запущено до конца 2015 года. Поскольку с момента последнего обновления прошло больше года, это долгожданный релиз. (Примечание редактора от 7 декабря 2015 г.: с момента публикации представитель Google сказал: «Похоже, что впереди праздники, и пингвины не будут маршировать до следующего года».)
  2. Следующий Penguin будет версией алгоритма «в реальном времени».

Многие ожидают, что как только Penguin будет включен в стандартный алгоритм ранжирования, ранжирование будет снижаться и повышаться практически в режиме реального времени, поскольку Google учитывает отрицательные и положительные сигналы обратных ссылок. Предположительно, это будет включать в себя более непосредственное влияние отправки файла disavow — инструмента, который был предметом многочисленных споров в индустрии SEO.

Но что, если план Google состоит в том, чтобы полностью изменить способ работы Penguin? Что, если бы мы жили в мире, где неорганические обратные ссылки не наказывали бы сайт, а просто игнорировались бы алгоритмом Google и не представляли никакой ценности? Что, если следующая итерация Penguin, которая должна работать как часть алгоритма, на самом деле даст Google возможность полностью убить алгоритм Penguin и изменить способ рассмотрения ссылок , используя свои знания об авторитетности и семантических отношениях в сети? ?

Мы в Bruce Clay, Inc. пришли к этой теории после долгих обсуждений, предположений и, как любая хорошая SEO-компания, обратного проектирования. Давайте начнем с основных проблем, для решения которых был разработан штраф Penguin, что привело к нашей гипотезе о том, как новый алгоритм будет справляться с ними более эффективно.

Работа в обратном направлении: проблемы с Penguin

Из всех алгоритмических изменений, направленных на борьбу с веб-спамом, штраф Penguin оказался наиболее проблематичным как для веб-мастеров, так и для Google.

Это было проблематично для веб-мастеров из-за того, как трудно выйти из-под контроля. Если бы некоторые веб-мастера знали, насколько сложно будет оправиться от штрафов Penguin, начиная с апреля 2012 года, они, возможно, решили бы отказаться от своих сайтов и начать с нуля. В отличие от ручных санкций за веб-спам, когда (как нам сказали) сотрудник Google проверяет работу по сокращению ссылок и отклонению файлов, алгоритмические действия зависят от того, что Google обновляет свой алгоритм, чтобы увидеть восстановление. Обновления случались всего четыре раза с тех пор, как был выпущен первоначальный штраф Penguin, что делает возможности для раскаяния очень редкими.

Penguin был проблематичным для Google, потому что, в конце концов, пенальти Penguin и их влияние на бизнес, как крупный, так и малый, стали пиар-кошмаром для поисковой системы. Многие утверждают, что Google меньше всего заботят негативные настроения в сообществе цифрового маркетинга (в частности, SEO), но гнев по отношению к Google на этом не заканчивается; во многих крупных основных изданиях, таких как The Wall Street Journal, Forbes и CNBC, были опубликованы статьи, в которых подчеркивается наказание Penguin и его негативное влияние на малый бизнес.

Борьба со ссылочным спамом и негативными SEO-проблемами

Из-за эффективности линкбилдинга до 2012 года (и в некоторой степени с тех пор) Google столкнулся с огромной проблемой ссылочного спама. Давайте проясним это; Google создал этого монстра, когда в первую очередь поощрял неорганические ссылки. Некоторое время линкбилдинг работал как по маслу. Могу я позаимствовать цитату моего босса Брюса Клея: «Старый образ мыслей заключался в том, что побеждает тот, кто умирает с наибольшим количеством ссылок».

Эта тактика оказалась настолько эффективной, что буквально изменила лицо Интернета. Спам в блогах, спам в комментариях, парсерные сайты — ничего из этого не существовало бы, если бы алгоритм Google в течение достаточно долгого времени не вознаграждал приобретение ссылок (независимо от источника) более высоким рейтингом.

черный капюшон
Негативное SEO: проблема, о которой Google говорит, что не существует, в то время как многие задокументированные примеры указывают на обратное.

А еще есть негативное SEO — проблема, о которой Google официально заявил, что это не проблема, хотя было много задокументированных примеров, указывающих на обратное. Google даже выпустила инструмент дезавуирования, частично разработанный для решения отрицательной проблемы SEO, существование которой они отрицают.

Алгоритм Penguin, предназначенный для решения исходных проблем ссылочного спама Google, не смог решить проблему ссылочного спама; когда вы добавите к пиаровской головной боли то, чем стал Penguin, вы можете возразить, что Penguin потерпел полный провал, в конечном итоге создав больше проблем, чем решив. Учитывая все обстоятельства, Google очень заинтересован в том, чтобы переосмыслить то, как они обрабатывают сигналы ссылок. Проще говоря, им нужно построить лучшую мышеловку — и запуск «нового пингвина» — это возможность сделать именно это.

Решение: переосмысление пингвина

Учитывая эти проблемы, что делать группе докторов наук в Маунтин-Вью, Калифорния? Что, если вместо того, чтобы контролировать спамеров, они могли бы изменить правила и вообще исключить спамеров из игры?

Изменив свой алгоритм, чтобы больше не наказывать и не вознаграждать неорганические ссылки, Google может одним махом решить проблему со ссылками раз и навсегда. Мотивация для создания ссылок из спама будет устранена, потому что она просто больше не будет работать. Негативное SEO, основанное на создании спам-обратных ссылок на конкурентов, больше не будет работать, если неорганические ссылки перестанут передавать негативные сигналы доверия.

Определение технологий поисковых систем

График знаний, Hummingbird и RankBrain — о боже!

Что такое граф знаний?
График знаний — это база данных Google семантических фактов о людях, местах и ​​вещах (называемых сущностями ). Сегмент знаний также может относиться к выделенной рамкой области на странице результатов поиска Google, где отображается сводная информация об объекте.

Что такое Гугл Колибри?
Google Hummingbird — это название алгоритма поиска Google. Он был запущен в 2013 году как капитальный ремонт механизма, обеспечивающего результаты поиска, что позволяет Google понимать значение слов и отношений между синонимами (а не сопоставлять результаты с ключевыми словами) и обрабатывать диалоговые (разговорные) запросы.

Что такое RankBrain?
RankBrain — это название технологии искусственного интеллекта Google, используемой для обработки результатов поиска с помощью возможностей машинного обучения. Машинное обучение — это процесс, при котором компьютер обучается, собирая и интерпретируя данные; в случае алгоритма ранжирования алгоритм машинного обучения может уточнять результаты поиска на основе обратной связи от взаимодействия пользователя с этими результатами.

Что мешает Google добиться этого, так это то, что ему требуется способность точно определять, какие ссылки релевантны для любого сайта или, в зависимости от обстоятельств, темы. Вы скажете, что развивать эту способность оценивать релевантность ссылок легче, чем сделать — и я согласен. Но, глядя на самые последние изменения, внесенные Google в свой алгоритм, мы видим, что основа для этого типа алгоритмической структуры, возможно, уже заложена. Фактически, можно сделать вывод, что Google уже довольно давно работает над этим решением.

Семантическая сеть, колибри и машинное обучение

Если вы еще не заметили, Google вложил значительные средства в улучшение понимания семантических отношений между сущностями в Интернете.

С введением Knowledge Graph в мае 2012 года, запуском Hummingbird в сентябре 2013 года и недавним подтверждением алгоритма машинного обучения RankBrain компания Google недавно сделала качественный скачок в своей способности распознавать отношения между объектами и их атрибутами . .

Google понимает семантические отношения, изучая и извлекая данные из существующих веб-страниц и используя информацию из запросов, которые пользователи используют в своей поисковой системе.

Алгоритм поиска Google стал «умнее» уже довольно давно, но, насколько нам известно, эти улучшения не применяются к одному из основных сигналов ранжирования Google — внешним ссылкам. У нас не было причин подозревать, что основные принципы PageRank изменились с тех пор, как они были впервые представлены Сергеем Брином и Ларри Пейджем в 1998 году.

Почему не сейчас?

Что, если бы Google мог использовать свое семантическое понимание Интернета не только для определения взаимосвязей между ключевыми словами, темами и темами, но и для взаимосвязей между веб-сайтами, на которых они обсуждаются? Теперь сделайте шаг вперед; возможно ли, чтобы Google мог определить, должна ли ссылка передавать ценность (ссылочный вес) своей цели, основываясь на релевантности темы и авторитетности?

Билл Славски, ведущий специалист по патентному анализу Google в отрасли SEO, написал бесчисленное количество статей о семантической сети, подробно описывая процесс Google для извлечения и связывания фактов и объектов с веб-страниц. Это увлекательный (и сложный) анализ с серьезными последствиями для SEO.

Для наших целей мы немного упростим ситуацию. Мы знаем, что Google разработал метод для понимания сущностей и их связи с конкретными веб-страницами. Сущность в данном случае — это «конкретно названное лицо, место или вещь (включая идеи и объекты), которые могут быть связаны с другими сущностями на основе отношений между ними». Это очень похоже на алгоритмическую тяжелую работу, которую нужно было бы проделать, если бы Google намеревался использовать свои знания об авторитетности веб-сайтов при анализе ценности обратных ссылок на основе их релевантности и авторитетности для предмета.

Выход за рамки ссылок

SEO-специалисты слишком сосредоточены на обратных ссылках, и на то есть веские причины; корреляционные исследования, в которых анализируются факторы ранжирования, по-прежнему оценивают качественные обратные ссылки как один из основных факторов, влияющих на ранжирование Google. Именно эта корреляция положила начало притоку неорганических связей, которые привели нас к нашему нынешнему положению дел.

Но что, если бы Google мог перейти от создания или получения ссылок к модели, которая также вознаграждает упоминания с авторитетных сайтов в любой нише? Уменьшение акцента на ссылках при сохранении вознаграждения за ссылки из соответствующих источников расширило бы количество сигналов, на которые полагался Google для оценки релевантности и авторитетности, и помогло бы избавиться от их зависимости от ссылок как фактора ранжирования. Кроме того, по-видимому, будет сложнее «обыграть», поскольку настоящие авторитеты в любом вопросе вряд ли будут ссылаться на бренды или сайты, которые не заслуживают упоминания.

Это важный момент. В нынешних условиях у веб-сайтов очень мало мотивации для ссылок на внешние источники. Это была проблема, которую Google никогда не мог решить. У властей никогда не было мотивации размещать ссылки на потенциальных конкурентов, а отсутствие органических ссылок в нишах привело к климату, в котором покупка и продажа ссылок может показаться единственным жизнеспособным вариантом получения ссылок для некоторых веб-сайтов. Зачем ограничивать передачу ссылочного капитала гиперссылкой? Разве упоминание истинного авторитета не является столь же сильным сигналом?

У этой концепции определенно есть прецедент. «Совместное появление» и «совместное цитирование» — это термины, которые оптимизаторы используют уже много лет, но Google никогда не подтверждал, что они являются факторами ранжирования. Однако недавно Google начал перечислять несвязанные упоминания в отчете «последние ссылки» в Search Console. Джон Мюллер указал в серии твитов, что Google действительно собирает упоминания URL-адресов из текста, но эти упоминания не проходят PageRank.

Здесь примечательно не только то, что Google отслеживает только текстовые упоминания домена, но и то, что они связывают эти упоминания с доменом, на который они ссылаются. Если Google сможет соединить точки таким образом, смогут ли они выйти за пределы URL-адресов, отображаемых в виде текста на странице, и ссылок на сущности? Возможно, те же самые ссылки, которые вызывают График знаний Google?

В итоге

Мы построили дело, основанное на большом количестве предположений и догадок, но мы, безусловно, надеемся, что это именно то направление, в котором Google развивает свой алгоритм. Независимо от того, признает это Google или нет, проблема ссылочного спама до сих пор не решена. Наказания в виде пингвинов носят карательный характер, и избежать их чрезвычайно сложно, и дело в том, что наказание правонарушителей не решает проблему в ее источнике. Мотивация для создания неорганических обратных ссылок будет существовать до тех пор, пока тактика воспринимается как работающая. При действующем алгоритме мы можем ожидать, что сомнительные SEO-специалисты будут продавать змеиное масло, а ничего не подозревающие компании будут наказаны.

Лучший вариант Google — удалить негативные сигналы, связанные с неорганическими ссылками, и вознаграждать только те ссылки, которые они считают релевантными. Поступая таким образом, они немедленно уничтожают создателей спам-ссылок, чей единственный быстрый и масштабируемый способ создания ссылок — размещение их на веб-сайтах, которые практически не представляют реальной ценности.

Настроив свой алгоритм так, чтобы вознаграждать только те ссылки, которые обладают опытом, авторитетом и доверием в соответствующей нише, Google может приблизиться, чем когда-либо прежде, к решению своей проблемы ссылочного спама.

Примечание редактора, 7 декабря 2015 г.: 3 декабря мы узнали, что, несмотря на предыдущие комментарии Google, предполагающие обратное, следующее обновление Penguin выйдет не раньше конца года. Мы обновили эту статью, чтобы отразить это.