Полное руководство по обновлённому алгоритму Penguin от Google. Что такое фильтр Penguin от Google

09.04.2019

В 2012 году Google официально запустил «алгоритм борьбы с веб-спамом », направленный против спам-ссылок, а также практик манипулирования ссылками.

Этот алгоритм позже стал официально известен как алгоритм Гугл Пингвин после твита Мэта Каттса (Matt Cutts ), который впоследствии стал главой подразделения Google по борьбе с веб-спамом. Несмотря на то, что в Google официально назвали алгоритм Penguin , никаких официальных комментариев по поводу того, откуда пошло это название, не было.

Название алгоритму Panda дал из инженеров, работавших над ним. Одна из теорий возникновения имени Penguin состоит в том, что это отсылка к Пингвину – герою комиксов DC про Бэтмена .

Перед внедрением Penguin количество ссылок играло значительную роль при оценке веб-страниц поисковыми роботами Google .

Это означало, что при ранжировании сайтов по этим оценкам в результатах поиска некоторые низкокачественные сайты и куски контента появлялись на более высоких позициях.

Зачем потребовался алгоритм Penguin

Война Google с низкокачественными результатами поиска началась с алгоритма Panda , а алгоритм Penguin стал расширением и дополнением арсенала.

Penguin стал ответом Google на расширяющиеся практики манипуляции результатами поиска (и ранжированием ) через спам-ссылки.

Алгоритм Penguin обрабатывает только входящие на сайт ссылки. Google анализирует ссылки, ведущие на сайт, и не воспринимает исходящую ссылочную массу.

Первоначальный запуск и влияние

При первом запуске в апреле 2012 года фильтр Пингвин Гугл повлиял более чем на 3% результатов поиска, согласно собственным оценкам Google .

Penguin 2.0 , четвёртое обновление (включая первоначальную версию ) алгоритма, был выпущен в мае 2013 года и затронул примерно 2,3% всех поисковых запросов.

Ключевые изменения и обновления алгоритма Penguin

Всего было несколько изменений и обновлений алгоритма Penguin , начиная с момента его запуска в 2012 году.

Penguin 1.1: 26 марта 2012 года

Это было не изменение алгоритма, а первое обновление данных внутри него. Сайты, изначально затронутые алгоритмом Penguin , но после избавившиеся от низкокачественных ссылок, получили некоторое улучшение своих позиций. В то же время другие сайты, не затронутые алгоритмом Penguin при его первом запуске, заметили определенное воздействие.

Penguin 1.2: 5 октября 2012 года

Это было очередное обновление данных. Оно затронуло запросы на английском языке, а также международные запросы.

Penguin 2.0: 22 мая 2013 года

Более продвинутая (с технической точки зрения ) версия алгоритма, которая изменила степень его влияния на результаты поиска. Penguin 2.0 затронул примерно 2,3% англоязычных запросов, и примерно такую же долю запросов на других языках.

Также это было первое обновление алгоритма Гугл Пингвин , которое заглядывало дальше главной страницы и страниц верхнего уровня в поисках доказательств наличия спам-ссылок.

Penguin 2.1: 4 октября 2013 года

Единственное обновление алгоритма Penguin 2.0 (версия 2.1 ) вышло 4 октября того же года. Оно затронуло около 1% поисковых запросов.

Несмотря на то, что никаких официальных объяснений обновления от Google не было, статистика свидетельствует о том, что апдейт также увеличил глубину просмотра страниц и ввел дополнительный анализ наличия спам-ссылок.

Penguin 3.0: 17 октября 2014 года

Стало очередным обновлением данных, позволившим многим попавшим под санкции сайтам восстановить свои позиции, а другим, злоупотреблявшим спам-ссылками, но скрывшимся от предыдущих версий Penguin , почувствовать на себе его влияние.

Сотрудник Google Пьер Фар (Pierre Far ) подтвердил это и отметил, что обновлению потребуется «несколько недель » для полного развёртывания. И что апдейт затронул менее 1% англоязычных поисковых запросов.

Penguin 4.0: 23 сентября 2016 года

Почти через два года после обновления 3.0 было выпущено последнее изменение алгоритма. В результате Penguin стал частью базового алгоритма поисковой системы Google .

Теперь, работая одновременно с базовым алгоритмом, Гугл Пингвин 4 оценивает сайты и ссылки в режиме реального времени. Это означает, что можно видеть относительно быстрое влияние изменений внешних ссылок на позиции вашего сайта в поисковой выдаче Google .

Обновлённый алгоритм Penguin также не был направлен строго на наложение санкций, он девальвировал значение спам-ссылок. Это стало противоположностью предыдущим версиям Penguin , когда за плохие ссылки следовало наказание. Но исследования показывают, что алгоритмические санкции, основанные на внешних ссылках, используются до сих пор.

Алгоритмические понижения в Penguin

Вскоре после запуска алгоритма Penguin , вебмастера, которые практиковали манипулирование ссылками, стали замечать снижение объема поискового трафика и позиций в поиске.

Не все понижения, спровоцированные алгоритмом Penguin , касались целых сайтов. Некоторые были частичными и затрагивали только определённые группы ключевых слов, которые были активно забиты спам-ссылками или «излишне оптимизированы ».

Сайт, попавший под санкции Penguin , которому потребовалось 17 месяцев, чтобы восстановить свои позиции в поисковой выдаче Google .

Влияние Penguin также распространяться между доменами. Поэтому смена домена и перенаправление со старого на новый может сулить ещё больше проблем.

Исследования показывают, что использование перенаправлений 301 или 302 не отменяет влияния алгоритма Penguin . На форуме вебмастеров Google Джон Мюллер (John Mueller ) подтвердил, что использование перенаправлений meta refresh с одного домена на другой также может привести к санкциям.

Восстановление от воздействия алгоритма Penguin

Утилита Disavow Links Tool была полезной для специалистов SEO , и это не изменилось даже теперь, когда алгоритм Пингвин Гугл функционирует как часть базового алгоритма Google .

Что включать в файл дезавуирования

Файл Disavow содержит ссылки, которые должен игнорировать Google . Благодаря чему некачественные ссылки не будут снижать позиции сайта в результате работы алгоритма Penguin . Но это также означает, что, если вы ошибочно включили высококачественные ссылки в ваш файл дезавуирования, то они больше не помогут сайту подняться на более высокие позиции.

Не нужно включать никаких комментариев в Disavow , кроме случаев, когда они нужны вам самим.

Google не читает пояснений, которые вы делаете в файле, так как он обрабатывается автоматически. Некоторым удобнее добавлять пояснения для последующего использования. Например, дату, когда группа ссылок была добавлена в файл или комментарии о попытках связаться с вебмастером сайта, чтобы убрать ссылку.

После того, как вы загрузите файл Disavow , Google отправит вам подтверждение. Но, несмотря на то, что Google обработает его немедленно, он не дезавуирует ссылки в тот же момент. Поэтому вы не сможете сразу же восстановить позиции вашего сайта в поисковой выдаче.

Также не существует способа определить, какие ссылки были дезавуированы, а какие нет, так как Google всё равно включит и те, и другие в отчёт о внешних ссылках, доступный в Google Search Console .

Если вы ранее загружали Disavow и отправляли его в Google , он заменится новым, а не добавится к старому. Поэтому важно убедиться в том, что вы включили в новый файл старые ссылки. Вы всегда можете скачать копию текущего файла в своем аккаунте Google Search Console .

Отключение отдельных ссылок или доменов целиком

Для вывода сайта из под Гугл Пингвин рекомендуется дезавуировать ссылки на уровне домена вместо отключения отдельных ссылок.

Благодаря чему поисковому роботу Google потребуется посетить всего одну страницу на сайте, чтобы дезавуировать ссылки, ведущие с него.

Отключение ссылок на уровне домена также означает, что вам не нужно беспокоиться, индексируется ли ссылка с www или без.

Обнаружение ваших внешних ссылок

Если подозреваете, что на ваш сайт негативно повлиял алгоритм Penguin , нужно провести аудит внешних ссылок и дезавуировать низкокачественные или спам-ссылки.

Google Search Console позволяет владельцам сайтов получить список внешних ссылок. Но необходимо обратить внимание на то, что Disavow включает в себя ссылки, которые помечены как «nofollow ». Если ссылка помечена атрибутом nofollow , она не окажет влияния на ваш сайт. Но необходимо, чтобы сайт, разместивший ссылку на ваш ресурс, может убрать атрибут «nofollow » в любой момент без какого-либо предупреждения.

Также существует много сторонних инструментов, которые показывают ссылки, ведущие на сайт. Но из-за того, что некоторые вебмастера защищают сайт от обхода сторонними ботами, использование таких инструментов может показать не все входящие ссылки. Кроме этого подобная блокировка может быть использована некоторыми ресурсами, чтобы скрыть низкокачественные ссылки от обнаружения.

Мониторинг внешних ссылок – необходимая задача, чтобы защититься от атаки по принципу «негативного SEO ». Их суть заключается в том, что конкурент покупает спам-ссылки на ваш сайт.

Многие используют негативное SEO как оправдание, когда их сайт попадает под санкции от Google за низкокачественные ссылки. Но Google утверждает, что после обновления Пингвина Гугл поисковик хорошо распознает подобные атаки.

Опрос, проведённый Search Engine Journal в сентябре 2017 года, показал, что 38% SEO-специалистов никогда не дезавуировали внешние ссылки . Просмотр внешних ссылок и тщательное исследование домена каждой внешней ссылки - это нелёгкая задача.

Запросы на удаление ссылок

Некоторые владельцы сайтов требуют определенной оплаты за удаление ссылки. Google рекомендует не платить за это. Просто включите плохую внешнюю ссылку в ваш файл дезавуирования и переходите к удалению следующей ссылки.

Несмотря на то, что подобные запросы являются эффективным способом восстановить позиции сайта после применения санкций за внешние ссылки, они не всегда обязательны. Алгоритм Гугл Пингвин рассматривает портфель внешних ссылок целиком, то есть как соотношение количества высококачественных, естественных ссылок и спам-ссылок.

Некоторые даже что включают в соглашение об использовании сайта «условия » размещения внешних ссылок, ведущих на их ресурс:


Мы поддерживаем только «ответственное » размещение внешних ссылок, ведущих на наши веб-страницы. Это означает, что:

  • Если мы попросим удалить или изменить ссылку на наши сайты, вы сделаете это незамедлительно.
  • Вы обязаны убедиться, что использование ссылок не навредит нашей репутации и не повлечёт за собой получение коммерческих выгод.
  • Нельзя размещать более 10 ссылок на наши сайты или веб-страницы без получения разрешения.
  • Сайт, на котором вы размещаете ссылку, ведущую на наш ресурс, не должен содержать оскорбительные или дискредитирующие материалы. А также не должен нарушать чьи-либо авторские права.
  • Если кто-либо кликает по ссылке, которую вы разместили, она должна открывать наш сайт на новой странице (вкладке ), а не внутри фрейма на вашем сайте.

Оценка качества ссылок

Не думайте, что, если внешняя ссылка расположена на сайте с доменом.edu, то она обязательно высокого качества. Множество студентов продают ссылки со своих персональных сайтов, которые зарегистрирован в зоне .edu . Поэтому они расцениваются как спам, и должны быть дезавуированы. Кроме этого многие сайты в зоне .edu содержат низкокачественные ссылки из-за того, что были взломаны. То же самое относится ко всем доменам верхнего уровня.

Представители Google подтвердили, что расположение сайта в определенной доменной зоне не помогает и не вредит его позициям в результатах поиска. Но нужно принимать решение для каждого конкретного сайта и учитывать обновления Пингвина Гугл .

Остерегайтесь ссылок с очевидно высококачественных сайтов

Просматривая список внешних ссылок, не рассматривайте их как высококачественные только потому, что они размещены на определённом сайте. Если только вы не уверены на 100% в её качестве. Только то, что ссылка размещена на авторитетном сайте, таком как Huffington Post или BBC , не делает её высококачественной в глазах Google . Многие из таких сайтов продают ссылки, причём некоторые из них являются замаскированной рекламой.

Промо-ссылки

Примерами промо-ссылок, которые в глазах Google являются платными, могут быть ссылки, размещённые в обмен на бесплатный продукт для обзора или скидку на продукт. Хотя такие типы ссылок были приемлемыми несколько лет назад, теперь они должны быть помечены атрибутом «nofollow ». Вы всё ещё можете получать выгоду от размещения таких ссылок. Они могут помочь увеличить узнаваемость бренда и привлечь трафик на сайт.

Крайне важно оценивать каждую внешнюю ссылку. Нужно удалить плохие ссылки, потому что они влияют на позиции ресурса в поисковой выдаче в результате воздействия алгоритма Пингвина Гугл , либо могут привести к ручным санкциям. Не стоит удалять хорошие ссылки, потому что они помогают вам подняться в поисковой выдаче.

От санкций алгоритма Penguin не восстановиться?

Иногда, даже после того, как вебмастера проделывают огромную работу по очистке внешних ссылок, они всё равно не видят улучшений в объеме трафика или в позициях.

Есть несколько причин этого:

  • Изначальный прирост трафика и улучшение позиций в поиске, возникшие перед наложением алгоритмических санкций, были и исходили от плохих внешних ссылок.
  • Когда плохие внешние ссылки были удалены, не было предпринято усилий, чтобы получить новую ссылочную массу высокого качества.
  • Не все спам-ссылки были отключены.
  • Проблема не во внешних ссылках.

Когда вы восстанавливаетесь от санкций, наложенных алгоритмом Penguin, не ждите, что позиции вашего ресурса в поисковой выдаче возвратятся или это произойдёт мгновенно.

Добавьте к этому тот факт, что Google постоянно меняет фильтр Пингвин Гугл , поэтому факторы, которые приносили пользу раньше, теперь могут иметь не такое сильное влияние.

Мифы и заблуждения, связанные с алгоритмом Penguin

Вот несколько мифов и заблуждений об алгоритме Penguin , которые возникли за последние годы.

Миф: Penguin – это наказание

Один из самых больших мифов про алгоритм Penguin – это то, что люди называют его наказанием (или тем, что в Google называют ручными санкциями ).

Penguin строго алгоритмический по своей природе. Он не может быть применён или снят специалистами компании Google в ручном режиме.

Несмотря на то, что действие алгоритма и ручные санкции, могут привести к большому падению в поисковой выдаче, между ними большая разница.

Ручные санкции возникают, когда специалист подразделения Google по борьбе с веб-спамом отвечает на претензию, проводит расследование и приходит к выводу о необходимости наложить санкции на домен. В этом случае вы получите уведомление в Google Search Console .

Когда к сайту применяются ручные санкции, нужно не только проанализировать внешние ссылки и отправить файл Disavow , содержащий спам-ссылки, но и отправить запрос на пересмотр вашего «дела » командой Google .

Понижение позиций в поисковой выдаче алгоритмом происходит без всякого вмешательства со стороны специалистов Google . Всё делает алгоритм Пингвин Гугл .

Раньше приходилось ждать изменения или обновления алгоритма, но теперь Penguin работает в режиме реального времени. Поэтому восстановление позиций может произойти гораздо быстрее (если работа по очистке была выполнена качественно ).

Миф: Google уведомит вас, если алгоритм Penguin повлияет на ваш сайт

К сожалению, это не правда. Google Search Console не уведомит о том, что поисковые позиции вашего сайта ухудшились в результате работы алгоритма Penguin .

Это снова показывает разницу между алгоритмом и ручными санкциями – вас уведомят, если на сайт были наложены санкции. Но процесс восстановления от воздействия алгоритма схож с восстановлением от ручных санкций.

Миф: дезавуирование плохих ссылок – единственный путь восстановиться от воздействия алгоритма Penguin

Хотя эта тактика и позволяет удалить многие низкокачественные ссылки, она бесполезна. Алгоритм Penguin определяет долю хороших, качественных ссылок относительно спам-ссылок.

Поэтому вместо того, чтобы направить все силы на удаление низкокачественных ссылок, стоит сфокусироваться на увеличении количества качественных внешних ссылок. Это позитивно скажется на соотношении, которое учитывает алгоритм Penguin .

Миф: Вам не восстановиться от воздействия алгоритма Penguin

Можно вывести сайт из под Гугл Пингвин . Но это потребует некоторого опыта во взаимодействии с постоянно меняющимися алгоритмами

Привет, друзья. Сегодня обещаю быть интересным, а главное полезным. Поделюсь с вами своей небольшой радостной новостью – как вы уже догадались из заголовка, мне удалось реабилитировать мой сайт, попавший ровно год назад под фильтр Гугл Пингвин. Хочу особо обратить ваше внимание, что речь пойдет именно про автоматически наложенные санкции без уведомлений в панели вебмастера о мерах принятых вручную – ничего этого не было, просто в октябре 2012 года трафик на сайт резко упал, а позиции вылетели из зоны видимости (за пределы ТОП 200). И с тех пор положение только усугублялось, но…

Но наконец-то свершилось то, чего я так долго ждал! Фильтр за спамные входящие ссылки снялся, значительно улучшилась видимость сайта, позиции сильно выросли.

Сказав выше слово «новость», я, конечно же, вас обманул, потому что это не новость. Этот пост я начал писать еще 14 октября 2013 года, но так и не дописал его, сначала решил немного подождать, чтобы не делать поспешных выводов, потом ленился, а затем вообще уволился с работы и переехал в другой город. Короче, было мне совсем не до Пингвинов. Но теперь я готов не только продолжить, но и дополнить свой пост новыми мыслями, идеями и выводами.

Хочу напомнить, что самый последний на сегодня апдейт алгоритма Google Penguin состоялся 5 октября 2013 года, называется он Penguin 5 (или Penguin 2.1), по данным Google новый алгоритм задел около 1% запросов. Вот об этом апдейте и пойдет дальше речь.

Далее я вам расскажу, что стало причиной наложения фильтра, какие были последствия, как мне в итоге удалось победить Гугл Пингвина, и что происходит на данный момент, а так же мои рекомендации о том, как делать не стоит, имея полученный опыт!

Пост будет очень длинным, но наберитесь терпения, это поможет вам либо застраховать себя от возможного фильтра, либо избавиться от него, если он уже наложен. Итак, поехали!

Краткий экскурс в историю

Вот ссылка на мой апрельский пост, где я писал (тогда еще даже в планах не было). Там же я упомянул про один мой проект, который я никому не свечу, но сегодня я решил спалиться, вот этот сайт — http://slimdown.ru/ . Да, это женский сайт, кстати, крупнейший структурированный сборник диет в рунете. И это для него же я делал мобильные приложения для iOS и Android – если не в облом, можете скачать и поставить оценку в 5 звезд, я буду очень благодарен (ссылки на приложения в сайдбаре сверху на указанном сайте)! Но не о крутости моего сайта речь, как вы понимаете.

А речь о том, что данный сайт в октябре 2012 года попал под фильтр Google Penguin. Смотрите сами.

Срез среднесуточной посещаемости с поиска Google по месяцам по данным LiveInternet.ru:

Или вот вам статистика переходов с ПС Google за период 1 января 2012 – 13 октября 2013:

Как видите, 2 октября 2012 у меня было все в полном порядке, взял новый рекорд посещаемости с Google почти в 3000 посетителей в сутки, а уже 6 числа все оказалось в жопе и далее только усугублялось. Совершенно очевидно, что это наложение фильтра за искусственные или спамные ссылки, т.к. как раз в эти дни был апдейт Пингвина. И если все предыдущие обновления алгоритма для меня проходили незаметно, более того – сайт только рос, то в этот раз мне это с рук не сошло. Апдейт этого злосчастного алгоритма был 5 октября 2012 года, назывался он Penguin 3 и коснулся по официальным данным около 0.3% всех запросов.

Так вот, в посте, который уже упоминался выше, я выдвинул гипотезу, что «появление в ссылочном профиле трастовых сайтов должно улучшить ситуацию и теоретически вернуть трафик с Google хотя бы частично ». А так же альтернативное исследование заключалось в том, чтобы сделать выгрузку беклинков на сайт из всех возможных источников, проверить их на качество… Далее почему-то я ничего тогда не сказал, но логично, что после проверки надо было понять, насколько плох текущий ссылочной профиль, выбрать всех плохих доноров и отклонить через инструмент Google Disavow Links Tool .

Восстановим хронологию событий

Чтобы ничего не упустить, еще раз разложим хронологию:

  • До 5 октября 2012 года все было замечательно , трафик рос завидными темпами, я собирался начинать копить на яхту)))
  • 5 октября случился апдейт алгоритма, после чего трафик резко упал , я понял, что это фильтр. Конечно, первым делом заглянул в панель вебмастера, в раздел «Меры, принятые вручную ». Но и тогда и сейчас там написано «В отношении этого сайта вручную не принимались меры по борьбе с веб-спамом». Я расстроился, перестал закупать ссылки и вообще что-либо делать с сайтом.
  • 15 ноября 2012 года, тогда еще, может кто-то помнит, была на странице «мер, принятых вручную» волшебная кнопка, позволяющая написать письмо в Гугл , даже если никаких мер не принято. Вскоре эту кнопку убрали, видимо, количество таких идиотов как я превысило критическую отметку. Так вот я решил прикинуться валенком и написать слезное письмо с мольбами о пощаде. Каково же было мое удивление, когда текст этого письма, бережно сохраненный в txt-файл, я нашел сегодня в одной из забытых папок на рабочем столе:

    Добрый день, уважаемая служба поддержки веб-мастеров.

    Я к вам обращаюсь по вопросу, по которому, наверняка, обращаются еще тысячи людей – проблемы с ранжированием сайта.

    Я прочитал данную инструкцию в вашей справке — http://support.google.com/webmasters/bin/answer.py?hl=ru&answer=2648487
    Мой сайт http://slimdown.ru . Я скачал список ссылок из панели вебмастера для своего сайта. Просмотрел его, а там около 4 тысяч ссылок, и ужаснулся, очень много ссылок с мошеннический сайтов, или дорвеев, созданных на бесплатных хостингах, типа narod.ru и др., вот несколько ссылок примеров:

    http://a570028.narod.ru/page/dieta_na_chae_s_molokom_72.html
    http://alex1953.narod2.ru/dieta_kristiny_orbakayte.html
    http://andreydust.narod2.ru/kefirnaya_dieta_9_dnyay_otzyvy.html
    http://balbeska-999.narod2.ru/dieta_na_800_kkal.html

    Все они выглядят одинаково и их очень много. Я просмотрел около 1500 ссылок из списка из 4000 и чуть не сошел с ума, проверяя все вручную.

    Я составил список доменов для инструмента отклонения ссылок https://www.google.com/webmasters/tools/disavow-links?hl=ru&siteUrl=http%3A%2F%2Fslimdown.ru%2F и загрузил текстовый файл. Пример содержания файла:
    domain: 0good-diet-2011.ru
    domain: aleksei-pelevin.narod2.ru
    domain: deorseradar.pochta.ru
    domain: easy-diet.cu.cc
    и т.д.

    В соответствии с вашей справкой пишу вам это письмо.

    Хотелось бы еще попутно задать несколько вопросов:
    — Пропадут ли ссылки с доменов, указанных и загруженных в файле для инструмента отклонения ссылок? Если так, то я смогу периодически проверять список ссылок и добавлять в отклонение новые, некачественные ссылки.
    — Можно ли добавлять в список на отклонение домены верхнего уровня? Например, narod.ru, чтобы все поддомены так же не учитывались. Я готов пожертвовать ссылками с нормальных сайтов на бесплатных хостингах, иначе просто невозможно отследить все вредоносные поддомены третьего уровня.

    Небольшая предыстория этого письма. Раньше мой сайт очень хорошо чувствовал себя в поиске Google и получал хороший трафик. Я начал вести свой сайт с конца 2009 года и постепенно наполнял его качественными статьями. Сначала мы с женой писали туда новости, потом стали привлекать и других людей, которые помогали наполнять сайт. По сути, вот уже 3 года и продолжаем каждый день публиковать статьи.

    Я постоянно слежу за состоянием сайта в панели вебмастера, исправляю все ошибки, слежу, чтобы не было одинакового содержания на разных страницах и т.д. Внедряю ваши рекомендации, которыми вы делитесь в блоге и в справке для веб-мастера.

    Но вот в начале октября 2012 года трафик с Google резко упал. Вот скриншот графика одного из счетчиков — http://s2.ipicture.ru/uploads/20121115/7RIIQFhG.png (04.03.2014, прим — картинка уже не существует) . Заметно, что трафик с начала 2012 года начал очень хорошо расти, мы как раз начали более активно наполнять сайт, чаще публиковать новости. Яндекс долго «думал» прежде чем понять, что мы стали усерднее работать над сайтом и только в мае трафик начал расти. И я не знаю, с чем связано столь резкое падение посетителей с Google, ведь развитие сайта было всегда в одном направлении, просто стали добавлять больше статей. Все статьи уникальные, мы их пишем сами, хотя иногда я и проверяю, не своровал ли кто-то наши тексты.

    Поэтому и обращаюсь к вам за помощью. Может быть и правда, причина в тех самых ссылках, о которых я говорил в самом начале письма.

    Мы очень ждем вашего ответа.
    Спасибо, что выслушали и прочитали такое большое письмо.

    Как вы понимаете, прикидываться валенком было бесполезно, ни ответа, ни какой-то иной реакции на мое письмо не последовало. Я продолжал грустить.

  • В апреле 2013 наступило озарение – задумался про траст, запилил скрипт-парсер маджестика, попутно выдвинул гипотезу, решил провести . А еще через пару дней пришла мысль из разряда, а что если... Что если создать программу для автоматизации оценки имеющихся ссылок и будущих доноров!? И началась разработка (в мае).
  • 26 июня 2013 случился . Как вы знаете, случился такой ажиотаж вокруг программы, что я вообще забил все кроме программы, а времени не хватало даже на сон.
  • Летом на эксперимент я забил, но не забыл. За месяц до релиза программы на самом первом рабочем прототипе я первым делом прогнал базу доноров GGL и стал закупаться понемногу ссылками с самых трастовых сайтов (Траст > 50, Спам
  • Параллельно закупу ссылок я скачал полный список беклинков из Google WMT и из панели вебмастера Яндекса. Совместил эти таблицы, добавил в FastTrust и полностью проверил. На выходе получил список сайтов по самым жестоким фильтрам (Траст 7) и, сформировав txt-файл, использовал инструмент Disavow Tools . Под раздачу по таким критериям попали около 95% сайтов, требовались жестокие меры. Данный txt-файл я загрузил в Disavow 11 сентября 2013:

  • 5 октября 2013 года случается апдейт алгоритма в Google, и видимость сайта резко улучшается, запросы из ниоткуда возвращаются в пределы ТОП10-ТОП30. Казалось бы – вот она Победа! Но…

«Мир уже никогда не будет прежним»

Помните те графики в начале поста? Я их сделал через несколько дней после снятия фильтра. Я был полон оптимизма, наблюдая растущий график по Liveinternet’у и смотря на тут «пипку», похожую на появившийся пульс после остановки сердца, на графике Яндекс Метрики…

Я уверен, вы хотите знать, что сейчас происходит, какие сейчас графики и вообще.
Вот, пожалуйста.

Статистика по трафику с Google по данным Яндекс Метрики за 2 года (период 26 февраля 2012 – 26 февраля 2014):

Не совсем понятно что там на графике происходит. Поэтому ниже предлагаю вам два графика из Liveinternet (среднесуточная посещаемость) с группировкой по месяцам и по неделям:



Вы думаете, какая-то фигня, АлаичЪ нас обманывает! На графике по месяцам и правда можно подумать, что это не больше чем «пук в лужу». Но на графике по неделям видно, что в первый же день трафик вырос в 2 раза и продолжал расти дальше. Далее провал, связанный с новым годом, а так же всплеск, связанный с ним же. Делать еще какие-то выводы из этих графиков я не берусь, но совершенно отчетливо видно, что падений нет, но, к сожалению, нет и роста…

Почему это – Победа!

Вы не поверите, насколько сильно мне хочется вернуть былую славу моего сайта в глазах Гугла, насколько сильно мне хочется вернуть и еще увеличить трафик. Разумеется, чтобы таки начать копить на яхту, ведь я же живу теперь совсем около моря))) Но чудес не бывает, зато бывают победы, и эта одна из них.

Открывайте картинку по ссылке ниже в новой вкладке в полный размер и смотрите. Первым признаком снятия фильтра и улучшения самочувствия сайта в целом является улучшение видимости в выдаче. На графике видно, что видимость сайта улучшилась с 5000 до 8000 показов. После этого в течение 2 недель видимость увеличилась до 12 000, но скриншота этого графика у меня нет, а сейчас вернуться в те времена нельзя, история хранится только за последние 2 месяца. Другими словами, видимость сайта выросла более чем в 2 раза. А ниже графика вы можете видеть изменение видимости каких-то отдельных запросов, их CTR и средней позиции.

Ну и вот вам еще более конкретный пример моей статистики – реальные запросы и изменение их позиций. Историческая сводка по позициям ключевых слов от июня 2012 года до октября 2013. Напомню, что апдейт алгоритма Пингвина случился 5 октября 2012 (фильтр наложен) и 5 октября 2013 (фильтр снялся).

Так же хочу обратить ваше внимание на сами ключевые слова (я их не стал скрывать), это часть из списка моих ориентировочных ключей – это самые ВЧ ключевики в нише (во всяком случае, по тем временам, например, один только запрос «японская диета» дает 1000+ переходов в день, это без длинного хвоста). Я рассчитывал вывести их в топ в течение еще нескольких месяцев, и это потенциально давало мне 30-50 тысяч посетителей ежедневно. Но как в известном ролике «пацан к успеху шел», да не дошел. Я специально для мониторинга выбирал ВЧ, т.к. НЧ и СЧ отлично и сами сидели стабильно в топе, мониторить их смысла особого и не было.

Вот вам еще один график с изменением позиций по маркерным ключам после снятия фильтра . Немного более наглядно, чем исторический график:

Не знаю, что тут еще добавить, графики все наглядно показывают. Но у нас остается открытым чуть ли не самый важный вопрос – а почему все случилось именно так?

Причины и следствия

Итак, есть у меня несколько идей и мнений на тему, почему все произошло именно так, а не иначе, почему трафик восстановился не полностью, почему, почему…

Начну издалека. Знаете ли вы, что существуют специальные форумы Google для вебмастеров, где можно напрямую пообщаться с официальными представителями поиска и обсудить интересующие вопросы? Более всего нам будет интересен форум про индексирование и ранжирование сайтов , где обсуждаются вопросы о взаимодействии сайтов с поисковой системой и их положении в поисковой выдаче.

Конкретно там обсуждаются проблемы, связанные с наложением фильтра, там можно «запалить» свой сайт, если не боитесь и обсудить, почему же вашему сайту стало плохо. Лично я боюсь там обсуждать свой сайт, там валенком не прикинешься, там растерзают на месте, я уже достаточно видел случаев полного морального уничтожения вебмастеров:)

Вот просто для затравки вам несколько ссылок, связанных с наложением Пингвина:
Сайт резко «упал» по всем поисковым запросам
Помогите выйти из под автофильтра

Если почитать несколько топиков, можно заметить, что в обсуждениях отвечающие очень умело оперируют данными по беклинкам из Solomono – скрыться от алгоритма можно попытаться, а от людей – никак. Если вы действительно нарушаете правила, вас моментально разоблачат.

Короче, не о том речь. Выше я вам просто дал полезные ссылки, которые стоит почитать. Но вел я к тому, что я там однажды наткнулся на длинную переписку одного вебмастера и представителя Гугла . Заключалась переписка в следующем – на сайт наложили ручной фильтр, пользователь воспользовался Disavow Links, но эффекта не получил, решил спросить, что делать и как дальше жить. Сначала выяснилось, что он просто некорректно создал txt-файл со списком ссылок для отклонения, далее выясняли, откуда взялись ссылки и как их удалить, часть удалили, часть осталась, решили отклонить. В процессе всего это цирка, который длился около месяца, вебмастеру несколько раз отказывали в снятии ручного фильтра, с горем пополам он наконец смог создать и загрузить правильный список ссылок для отклонения и его приняли. О чудо! Ручной фильтр сняли…

Вы не поверите, но сайт вебмастера не поднялся в выдаче – он просел и потерял даже самые плохие имеющиеся позиции! Фееричная развязка, не так ли? Далее было все еще смешнее – вебмастер умолял наложить обратно на его сайт фильтр, чтобы вернуть хоть какие-то позиции. В итоге дело кончилось ничем — поохали, поахали и разошлись с миром. Зато я хорошо помню объяснение представителя Гугла на счет повторного падения позиций. Он сказал что-то в духе: «А что вы хотели?! Вы отклонили ссылки, они теперь не учитываются, а ваш сайт, может быть, только за счет них и держался хоть на каких-то позициях, теперь эти ссылки не учитываются, вот и позиций тоже нет».

Верить представителям ПС нельзя, но и не верить тоже нельзя. Возможно поэтому одной из причин, почему трафик на моем сайте не вернулся к прежнему уровню, стал именно неучет анкорных ссылок . А я, будучи совершенно бесстрашным человеком, продвигал все по-хардкору – анкорные ссылки с точным вхождением ключевиков (но без повторов, просто очень большой набор кейвордов). В итоге на сайт к моменту наложения фильтра было куплено около 300 ссылок на 50 000р в GGL и еще 300 ссылок на 30 000р в RotaPost. Ссылки покупались максимально тематические — в статьях по теме на соответствующих сайтах. Еще одно тому подтверждение, что тематика сайта мало что решает, а совсем другие факторы отвечают за то, будет ли ссылка работать и не наложат ли фильтр. Кстати, я же потом проанализировал купленные мной ссылки, оказалось, что большая часть сайтов, на которых стоят эти ссылки, заспамлены и не трастовые совсем. Поэтому почти все купленные ссылки и отправились в Disavow, а ведь когда-то они прекрасно работали…до поры до времени.

Когда трафик с Гугла начал падать, с Яндекса он начал расти. Видимо, только тогда до Яндекса дошло, что я начал покупать ссылки, он начал их постепенно индексировать и учитывать. После фильтра в октябре я сразу перестал покупать ссылки, но Яндекс долго их учитывал, потому рост шел аж до февраля. Согласно эксперименту, летом 2013-ого я начал закупать трастовые ссылки, до Яндекса это дошло только в октябре-ноябре, зато хорошо дошло, посещаемость выросла с 3000 до 5000 в сутки. Так что под Яндекс ссылки с хороших сайтов продолжают рулить.

Как правильно отфильтровать некачественные ссылки

Я писал, что находил некачественные беклинки своей программой. Но программа есть не у всех, и далеко не у всех есть возможность ее купить, я это прекрасно знаю. И поэтому месяц назад, в конце января, я незаметно анонсировал наш новый мини-сервис под названием BackLinks Checker , цель которого как раз поиск и фильтрация некачественных ссылок .

Вы просто загружаете файл, скачанный из панели вебмастера Гугла, а сервис сам проанализирует каждый сайт. Когда анализ закончится, будет сформирован готовый txt-файл, который прямо сразу без каких-либо правок можно будет загрузить в Google Disavow Tools. Алгоритмы отбора некачественных сайтов основываются на опытах и наблюдениях, можете мне доверять!

И главное – стоимость такой проверки до смешного мала – 5 копеек за один проверенных хост! Обратите внимание, что я сказал не URL, а хост. В вашем файле с беклинками может быть и 50 000 ссылок, но ссылок с уникальных доменов там может быть всего 300, например. Соответственно и плата возьмется в размере 300*5=1500 копеек = 15 рублей! Где вы еще такое видели, чтобы проверка 1000 ссылок стоила вам всего 50 рублей!

Что касается продвинутых пользователей , которые хотят контролировать каждый шаг и решать все самостоятельно, ты в данный момент мы работаем над большим сервисом под названием CheckTrust — релиз его пока не состоялся, но уже я успел сделать анонс в Москве на конференции AllInTop Conf. Сервис в стадии беты, но вы можете регистрироваться уже сейчас и полноценно им пользоваться. При регистрации каждому будет выдано 500 бесплатных проверок. Если говорить кратко, то этот сервис – аналог программы FastTrust в вебе, а к своему релизу он обрастет новыми уникальными возможностями, которых у программы нет и не будет. Пользуйтесь на здоровье и не забывайте сообщать обо всех найденных багах!

О том, как получить список некачественных ссылок я вам рассказал. Но как говорится в том самом анекдоте – есть нюанс! И нюанс этот взялся из публичных заявлений представителей Google, высказываний на форуме поддержки вебмастеров и, собственно, из писем-уведомлений о наложении ручных санкций на сайт:

«Исправьте или удалите все искусственные ссылки, не ограничиваясь приведенными выше примерами. Возможно, для этого Вам придется связаться с веб-мастерами соответствующих сайтов. Если Вы не смогли добиться удаления каких-либо ссылок, воспользуйтесь инструментом для отклонения ссылок. Однако помните, что недостаточно просто внести в него все подозрительные ссылки: отправляя запрос на повторную проверку, необходимо продемонстрировать, что Вы сделали все возможное для удаления искусственных ссылок с других ресурсов».

Так вот нюанс заключается в том, чтобы не тупо загрузить список ссылок в Disavow, но создать видимость того, что вы приложили все силы к тому, чтобы избавиться от «плохих» ссылок. Если вы арендуете ссылки в sape, то просто перестаньте это делать. А если вы покупали вечные ссылки, как это делал я, то можете попытаться связаться с вебмастерами и договориться удалить ссылки. Но я решил забить на нюанс, опасаясь за Яндекс, и потому ограничился только инструментом Disavow.

В качестве послесловия

Надо сказать, что все вышеописанное актуально и для снятия ручного фильтра Google Penguin , когда вам приходят сообщения в панель вебмастера об искусственных входящих ссылках. В этом случае задача упрощается, вам не надо будет гадать, все ли вы сделали правильно, вы просто чистите ссылки, отправляете запрос на пересмотр и ждете результата, если необходимо повторяете процедуру. Все просто. А вот мануалов по избавлению от автоматического Пингвина я пока не встречал.

Вот так совершенно незаметно вы прочитали более 20 000 знаков, при этом мне пришлось упустить некоторые моменты, поэтому обязательно задавайте вопросы, уточняйте, вместе попытаемся всю недостающую информацию раскрыть в комментариях .

Надеюсь, что мой пост оказался для вас полезным и заставил задуматься о правильных вещах!

Успехов и побед вам, дорогие друзья, в борьбе с фильтрами. Но еще лучше – не попадайте под фильтры вообще!

Спасибо за внимание, до связи.

С уважением, Александр Алаев

Мы выпустили новую книгу «Контент-маркетинг в социальных сетях: Как засесть в голову подписчиков и влюбить их в свой бренд».

Подписаться

Фильтр Google Пингвин - это один из последних алгоритмов, которые компания использует при ранжировании сайтов в поисковой выдаче.

На сегодняшний день Google при ранжировании сайтов принимает во внимание более двух сотен факторов. Чтобы учесть их все, одного алгоритма не хватит, необходимы несколько, каждый из которых будет решать собственные задачи.

Главная задача фильтра Пингвин – выявление и блокировка сайтов, использующих нечестные методы продвижения, основным из которых является закупка ссылочной массы. Алгоритм постоянно совершенствуется и в настоящее время апдейт фильтра Google Penguin выполняется практически непрерывно.

История разработки алгоритма Пингвин

Google Penguin вышел в мир в апреле 2012 года. В течение следующих двух месяцев он дважды обновлялся, разработчики корректировали первую версию фильтров. Вторая версия алгоритма появилась почти через год, обновленный Пингвин действовал уже тоньше и учитывал не только уровень ссылочного спама, но и общий уровень страницы.

Осенью 2014 года алгоритм вновь был обновлен. Надо сказать, что в тот период он действовал таким образом, что попавшим под его фильтры сайтам приходилось после коррекции долго дожидаться выхода очередного обновления, чтобы вновь пройти проверку. Ситуация изменилась в 2016 году, после выхода Google Penguin 4.0, который действовал в режиме реального времени и обновлялся непрерывно. Последние версии алгоритма действуют предельно мягко – учитывается уровень сайта, качество страниц, а некачественные ссылки аннулируются без отправки всего сайта в бан.

За что наказывает Google Penguin

Специалисты полагают, что алгоритм Пингвин должен дополнять алгоритм Google Панда, отвечающий за проверку контента сайтов. Чтобы ваш ресурс не попал под фильтр Google Пингвин, необходимо внимательно работать с внешними ссылками на сайт и избегать того, что специалисты называют манипулированием ссылочной массой. Основными способами такого манипулирования считаются:

  • «Торговля» ссылками, когда владелец сайта за деньги или другую плату публикует на своем ресурсе ссылки на чужие сайты.
  • Явно искусственный обмен ссылками, когда сайты ссылаются друг на друга из-за сговора владельцев, а не из-за качества контента.
  • Использование на сайте большого количества текстов, в которых много «притянутых за уши» анкоров и ключевых слов.
  • Использование сервисов, которые автоматически генерируют ссылки на сайт.
  • Наличие на сайте ссылок, имеющих в анкоре прямое вхождение ключевиков.
  • Использование сквозных ссылок с анкором-ключевиком в сайдбаре и футере сайта.
  • Комментарии к материалам сайта со ссылками на спам-ресурсы.
  • Чрезмерное количество контекстной рекламы на главной странице сайта.

За применение таких недобросовестных ссылочных схем фильтр Гугла Пингвин быстро и надежно «уронит» ваш сайт на много страниц в выдаче. Более того, вам будет очень непросто вернуть занимаемые позиции, поскольку проверка сайта Google Penguin выполняется всего лишь дважды в год.

Как узнать, что Google Penguin применил санкции

В отличие от алгоритма Google , работающего только в автоматическом режиме, Пингвин используется и при ручной модерации. Если вы обнаружили резкое падение трафика, зайдите на Google Webmaster Tools, в раздел «Меры принятые вручную» и проверьте, нет ли там сообщения от модераторов.

Если письмо есть, вам останется только исправить указанные в нем недочеты и отправить запрос о новой проверке.

Однако чаще всего алгоритм срабатывает автоматически. В этом случае стоит зайти на Moz.com и проверить, не было ли недавно обновлений Пингвина. Если обновления были, значит, диагноз установлен верно, и пора приступать к «лечению» сайта. Выявить это соответствие можно также с помощью сервиса PenguinTool, с сайта Barracuda. Правда для этого вам придется дать сервису доступ к своему аккаунту в Google Analytics, чтобы он сравнил период падения трафика и время выхода нового обновления. Результат сравнения поможет понять, попали вы под фильтры Пингвина или нет.

Что делать? если Google Penguin вас поймал

Если вы попали под фильтры этого алгоритма, то самое худшее, что можно сделать – начать панически удалять все ссылки. Этим вы окончательно погубите ресурс.

Сайту, который поисковая система сочла некачественным, нужна спокойная и вдумчивая санация. Сама компания Google предлагает набрать ссылочную массу заново, не спеша, естественным путем и в основном за счет создания уникального контента.

Первое, что нужно сделать для выхода из-под фильтра – проанализировать ссылочный профиль ресурса. Вам надо будет понять, какие ссылки идут с качественных сайтов, то есть с полезных, интересных и посещаемых, а какие со спамных. Сделать это можно с помощью сервиса Majestic SEO. Ссылки на спамные сайты (внутренние ссылки) надо нейтрализовать с помощью запретов noindex и nofollow, которые закроют «плохие» ссылки от индексации и заблокируют переходы по ним. Чтобы убрать внешние ссылки, вам надо будет использовать сервис Google для отклонения ссылок. Сервис называется , внесенные в него ссылки Пингвин Google просто не учитывает.

Второй шаг – смена анкоров ссылок. Ее выполняют двумя способами. Первый состоит в том, чтобы поменять ссылку на безанкорную, но сделать это может только опытный web-мастер. Второй способ состоит в наращивании ссылочного профиля за счет появления новых безанкорных ссылок.

Третьим шагом вам надо расширить базу ссылочных доноров, то есть позаботиться о том, чтобы ссылки шли из разных источников: с форумов, из социальных сетей, из каталогов, из блогов и средств информации, вроде интернет-журналов и новостных порталов. Полная санация сайта и выведение его из-под фильтров обычно занимает 3-4 месяца.

Чтобы не попасть под фильтры Google Penguin, надо привлекать только качественные ссылки, поддерживать постоянную динамику роста ссылочного профиля и не использовать в ссылках прямые анкоры. Качественный контент и естественное наращивание ссылочной массы из разных источников защитят вас от санкций поисковой системы лучше любого специалиста.

Новый алгоритм под названием “Пингвин”. Все вебмастера, кто максимально автоматизировал процесс продвижения сайта, почувствовали действие фильтра в резком падении трафика. Что произошло за этот год и какая текущая ситуация с “Пингвином”?

Краткое предисловие

Буквально через неделю после запуска нового алгоритма на MicrositeMasters появилась аналитика , основная суть которой заключалась в следующем. Пострадали больше всего сайты, имеющие в обратных ссылках:

  • Много прямых вхождений ключевых слов.
  • Мало вхождений в виде адреса сайта (URL ).
  • Мало тематических доноров.

Стоит отметить, что Пингвин затронул всего 3-5% поисковых запросов (Панда – 12%), то есть применяется не для всех тематик, но не заметить его влияние было сложно.

Нет быстрых решений

Так как из-за нового алгоритма многие компании начали терять часть бизнеса, все искали быстрых решений выхода из-под фильтра. Одним из выходов из ситуации был 301 редирект на новый домен (по которому раньше не передавался фильтр, но передавались все положительные качества ссылок). Однако, в августе 2012 команда вебспама Google отключила эту возможность и, практически, все сайты, которые на время вышли из-под Пингвина, снова были исключены из ТОП а.

Сейчас 301 редирект не работает для выхода из-под фильтра.

Причем, так как гугл находит зеркала не только по редиректу, но и по аналогичному контенту, то даже смена сайта (домена) не помогала (если контент оставался прежним), так как Google понимал, что это один и тот же сайт со старой историей. Мэтт Каттс заявляет, что должно пройти время, чтобы к сайту вернулось доверие.

За год было всего 2 обновления алгоритма Пингвин - 25 мая и 5 октября 2012. И как заявили на конференции SMX West, в этом году ожидается самый масштабный апдейт Пингвина (когда именно, пока не известно, может быть как раз на годовщину). За все это время кейсов выхода из-под фильтра - единицы . Часть из кейсов – западные, русскоязычные в паблике найти сложно, в основном они ходят в кулуарах между специалистами разных компаний. Но все они основаны на тщательном/кропотливом вычищении переспама, причем не только в ссылках, но и в контенте и коде страниц.

Что нам известно сейчас?

Сейчас нам известно, что есть 3 основные причины наложения фильтра “Пингвин”:

Низкокачественные ссылки
Куда относится переспам анкоров прямыми вхождениями ключей, размещение ссылок на сайтах низкого качества, обмен ссылками для повышения PageRank друг-друга, участие в ссылочных схемах для манипулирования поисковыми алгоритмами.

Продажа ссылок с сайта
Сюда относится наличие нетематических исходящих ссылок на сайте, а также общая заспамленность сайта коммерческими ссылками.

Шаблонный контент
Много дублей в поиске является признаком шаблонного контента. В результате фильтра сайт проседает по множеству низкочастотных запросов.

В целом, Google большое внимание уделяет определению по внутренним и внешним факторам. Если у поисковика сложилось плохое мнение о сайте по комплексу факторов, то инструмент отклонения ссылок не поможет избавиться от фильтра.

Сложно давать рекомендации при дефиците положительных кейсов, однако, можно сказать следующее. Так как Google большое внимание уделяет ссылкам, то сначала необходимо провести ссылочный аудит, выявить плохих доноров и избавиться от них, либо добавить в инструмент отклонения ссылок от Google.

Информация из недавней видео-встречи с Google.

Ринат Сафин (Google): “Развейте миф: говорят что “запингвиненные” сайты уже ничем не вытащить из глубин фильтра – проще бросить и сделать новый?” Семен из Кирова спрашивает.

Владимир Офицеров (Google): Ну, я вам так скажу – если вам проще бросить сайт, на который вы потратили какую-то часть своей жизни, то значит, не очень-то ценный был сайт. Скорей всего, нет. Пингвин, не пингвин – любой алгоритм, который мы внедряем, рано или поздно будет обновлен. Мы стараемся делать как можно чаще, но не всегда это можно делать каждый день. Соответственно, если ваш сайт… на него нет платных ссылок, если остальные платные ссылки вы убрали через инструмент отклонения, если на вас нет ручных мер, ваш сайт вернется туда, где он заслуживает быть. А дальше это, собственно говоря, уже зависти от того, насколько пользователям нравится ваш сайт, тот контент, который там предоставлен, и соответственно, насколько он интересен.

Используйте комплексный подход, не останавливайте работу на вычищении ссылок, улучшите сайт максимально для пользователя. И обязательно поделитесь своим положительным кейсом и другими наблюдениями в комментариях.

Penguin – алгоритм поисковой системы Google, первоначальной ролью которого являлась борьба с неестественными (покупными) ссылками. Дата первого релиза Penguin 1.0 – 24 апреля 2012 года.

Следующие обновления:

Запуск обновления Penguin 4.0 неоднократно откладывался. Релиз обновления планировался на конец 2015 года, однако, работа по усовершенствованию алгоритма продлилась до сентября 2016 года.

Представляем вам перевод статьи из официального блога Google: https://webmasters.googleblog.com/2016/09/penguin-is-now-part-of-our-core.html

Пингвин стал частью основного алгоритма Google

Алгоритм Google использует более 200 уникальных сигналов или «подсказок», что позволяет быстро находить то, что ищет пользователь. Эти сигналы включают в себя определенные слова на страницах сайтов, частоту обновления контента, регион сайта и PageRank. Один из таких сигналов Google – это алгоритм Пингвин, который был запущен в 2012 году и 23 сентября 2016 года был обновлен.

После совершенствования и тестирования Google сейчас выкатывает обновление алгоритма Пингвин на всех языках. Представляем вам ключевые изменения, которые вы увидите, они были среди популярных просьб вемастеров:

  • Сейчас Пингвин работает в реальном времени . Исторически сложилось так, что список сайтов, «пострадавших» от Пингвина периодически обновлялся. Когда вебмастера улучшали свои сайты, многие алгоритмы Google довольно быстро обновляли информацию о них, но таким алгоритмам, как Пингвин, требовалось время для обновления данных. Теперь данные Пингвина обновляются в реальном времени, а значит, изменения на сайте будут замечены Гуглом гораздо быстрее. Как правило, они вступают в силу сразу после повторного обхода роботом и индексации страниц. Это означает, что Google не собирается больше анонсировать свои обновления.
  • Пингвин стал более детальным . Сейчас он понижает страницы, содержащие спам путем изменения рейтинга, основанного на спам-сигналах, а не влияет на ранжирование сайта в целом. Т.е происходит занижение в выдаче одной или нескольких страниц, а не всего сайта.

Интернет (web-паутина) существенно изменился за эти годы, но как Google говорил в своем первоначальном посте, вебмастера должны быть свободны в своих действиях, чтобы сосредоточиться на создании убедительных и полезных сайтов. Также важно помнить, что обновления наподобие Пингвина – это только один из более 200 сигналов, который Google использует для ранжирования сайтов.