Панда от гугл. Google Panda – как работает он и как работать с ним

20.03.2019

Несмотря на то, что изме­не­ния в алго­рит­мах Google – одна из самых живо­тре­пе­щу­щих тем в сфере SEO , мно­гие мар­ке­то­логи не могут с уве­рен­но­стью ска­зать, как именно алго­ритмы Панда, Пинг­вин и Колибри повли­яли на ран­жи­ро­ва­ние их сай­тов.

Спе­ци­а­ли­сты ком­па­нии Moz поды­то­жили наи­бо­лее зна­чи­мые изме­не­ния алго­рит­мов Google и бук­вально раз­ло­жили по полоч­кам инфор­ма­цию о том, за что отве­чает каж­дое обнов­ле­ние.

Google Панда – Инспектор по качеству

Алго­ритм Панда, глав­ной целью кото­рого явля­ется повы­ше­ние каче­ства резуль­та­тов поиска , был запу­щен 23 фев­раля 2011 года. С его появ­ле­нием тысячи сай­тов поте­ряли свои пози­ции, что взбу­до­ра­жило весь Интер­нет. Пона­чалу опти­ми­за­торы думали, что Панда штра­фует сайты, заме­чен­ные в уча­стии в ссы­лоч­ных схе­мах. Но, как позже стало известно, борьба с неесте­ствен­ными ссыл­ками не вхо­дит в круг пол­но­мо­чий этого алго­ритма. Все, чем он зани­ма­ется, – это оценка каче­ства сайта.

Чтобы узнать, не угро­жает ли вам опас­ность попасть под фильтр Панды, ответьте на такие вопросы:

  • Стали бы вы дове­рять инфор­ма­ции, раз­ме­щен­ной на вашем сайте?
  • Есть ли на сайте стра­ницы с дуб­ли­ро­ван­ным или очень схо­жим кон­тен­том?
  • Вы бы дове­рили дан­ные вашей кре­дит­ной кар­точки подоб­ному сайту?
  • Содер­жатся ли в ста­тьях орфо­гра­фи­че­ские или сти­ли­сти­че­ские ошибки, опе­чатки?
  • Ста­тьи для сайта пишутся с уче­том инте­ре­сов чита­те­лей или же только с целью попасть в резуль­таты поиска по опре­де­лен­ным запро­сам?
  • Есть ли на сайте ори­ги­наль­ный кон­тент (иссле­до­ва­ния, отчеты, ана­ли­тика)?
  • Выде­ля­ется ли ваш сайт среди кон­ку­рен­тов, кото­рые выда­ются вме­сте с ним на стра­нице резуль­та­тов поиска?
  • Поль­зу­ется ли ваш сайт авто­ри­те­том в своей сфере?
  • Уде­ля­ете ли вы долж­ное вни­ма­ние редак­ти­ро­ва­нию ста­тей?
  • Предо­став­ляют ли ста­тьи на сайте пол­ные и инфор­ма­тив­ные ответы на вопросы поль­зо­ва­те­лей?
  • Вы бы стали добав­лять сайт/страницу в закладки или реко­мен­до­вать его дру­зьям?
  • Могли бы вы встре­тить подоб­ную ста­тью в печат­ном жур­нале, книге или энцик­ло­пе­дии?
  • Не отвле­кает ли вни­ма­ние чита­те­лей реклама на сайте?
  • Уде­ля­ете ли вы вни­ма­ние дета­лям при созда­нии стра­ниц?

Какие именно фак­торы учи­ты­вает Панда при ран­жи­ро­ва­нии сай­тов, навер­няка не знает никто. Поэтому лучше всего сфо­ку­си­ро­ваться на созда­нии мак­си­мально инте­рес­ного и полез­ного сайта. В осо­бен­но­сти вам нужно уде­лить вни­ма­ние таким момен­там:

  • « Недо­ста­точ­ный» кон­тент. В дан­ном кон­тек­сте тер­мин «недо­ста­точ­ный» под­ра­зу­ме­вает, что кон­тент на вашем сайте не пред­став­ляет новизны или цен­но­сти для чита­теля, так как не рас­кры­вает тему долж­ным обра­зом. И дело вовсе не в коли­че­стве сим­во­лов, так как ино­гда даже пара пред­ло­же­ний может нести нема­лую смыс­ло­вую нагрузку. Конечно, если боль­шин­ство стра­ниц вашего сайта будут содер­жать обрывки тек­ста из несколь­ких пред­ло­же­ний, Google сочтет его нека­че­ствен­ным.
  • Дуб­ли­ро­ван­ный кон­тент. Панда посчи­тает ваш сайт нека­че­ствен­ным в том слу­чае, если боль­шая часть его кон­тента ско­пи­ро­вана из дру­гих источ­ни­ков или если на сайте есть стра­ницы с дуб­ли­ро­ван­ным или схо­жим кон­тен­том. Это рас­про­стра­нен­ная про­блема Интер­нет-мага­зи­нов, кото­рые про­дают сотни това­ров, раз­лич­ных лишь по одному пара­метру (напри­мер, по цвету). Чтобы избе­жать этой про­блемы, исполь­зуйте тег canonical.
  • Нека­че­ствен­ный кон­тент. Google любит сайты, кото­рые посто­янно обнов­ля­ются, поэтому мно­гие опти­ми­за­торы реко­мен­дуют еже­дневно пуб­ли­ко­вать новые мате­ри­алы. Однако если вы будете пуб­ли­ко­вать нека­че­ствен­ный кон­тент, не пред­став­ля­ю­щий цен­но­сти для поль­зо­ва­те­лей, то такая так­тика при­не­сет больше вреда.

Как выйти из-под фильтра Панда?

Google еже­ме­сячно обнов­ляет алго­ритм Панда. После каж­дого обнов­ле­ния поис­ко­вые роботы пере­смат­ри­вают все сайты и про­ве­ряют их на соот­вет­ствие уста­нов­лен­ным кри­те­риям. Если вы попали под фильтр Панда, после чего внесли изме­не­ния на сайте (изме­нили недо­ста­точ­ный, нека­че­ствен­ный и неуни­каль­ный кон­тент), пози­ции вашего сайта улуч­шатся после оче­ред­ного обнов­ле­ния. Учтите, что, ско­рее всего, вам при­дется ждать вос­ста­нов­ле­ния пози­ций несколько меся­цев.

Google пингвин – Охотник за ссылками

Алго­ритм Google Пинг­вин был запу­щен 24 апреля 2012 года. В отли­чие от Панды, этот алго­ритм наце­лен на борьбу с неесте­ствен­ными обрат­ными ссыл­ками .

Авто­ри­тет и зна­чи­мость сайта в гла­зах поис­ко­вых систем во мно­гом зави­сит от того, какие сайты на него ссы­ла­ются. При этом одна ссылка с авто­ри­тет­ного источ­ника может иметь такой же вес, как десятки ссы­лок с мало­из­вест­ных сай­тов. Поэтому раньше опти­ми­за­торы стре­ми­лись всеми воз­мож­ными путями полу­чить мак­си­маль­ное коли­че­ство внеш­них ссы­лок.

Google научился рас­по­зна­вать раз­ные мани­пу­ля­ции с ссыл­ками. Как именно рабо­тает Пинг­вин, известно только его раз­ра­бот­чи­кам. Все, что известно опти­ми­за­то­рам, так это то, что этот алго­ритм охо­тится за нека­че­ствен­ными ссыл­ками, создан­ными веб-масте­рами вруч­ную с целью повли­ять на пози­ции сайта. Сюда отно­сятся:

  • покуп­ные ссылки;
  • обмен ссыл­ками;
  • ссылки с нере­ле­вант­ных сай­тов;
  • ссылки с сай­тов-сател­ли­тов;
  • уча­стие в ссы­лоч­ных схе­мах;
  • дру­гие мани­пу­ля­ции.

Как выйти из-под фильтра Пингвин?

Пинг­вин – такой же фильтр, как и Панда. Это озна­чает, что он регу­лярно обнов­ля­ется и пере­смат­ри­вает сайты. Чтобы выйти из-под филь­тра Пинг­вин, вам нужно изба­виться от всех неесте­ствен­ных ссы­лок и ждать обнов­ле­ния.

Если вы доб­ро­со­вестно после­ду­ете реко­мен­да­циям Google и не будете пытаться полу­чить ссылки нечест­ным путем, то смо­жете вер­нуть себе рас­по­ло­же­ние поис­ко­вых систем. Однако чтобы вер­нуть пер­вые пози­ции, вам не доста­точно будет про­сто уда­лить нека­че­ствен­ные ссылки. Вме­сто них вам нужно зара­бо­тать есте­ствен­ные редак­тор­ские ссылки с тра­с­то­вых сай­тов.

Google Колибри – самый «понимающий» алгоритм

Алго­ритм Колибри – это совсем дру­гой «зверь». Google объ­явил о запуске этого обнов­ле­ния 26 сен­тября 2013 года, но он также упо­мя­нул о том, что этот алго­ритм дей­ствует уже на про­тя­же­нии месяца. Вот почему вла­дельцы сай­тов, пози­ции кото­рых упали в начале октября 2013 года, оши­бочно пола­гают, что они попали под фильтр Колибри. Если бы это дей­стви­тельно было так, они ощу­тили бы дей­ствие этого алго­ритма на месяц раньше. Вы спро­сите, а что же в таком слу­чае послу­жило при­чи­ной сни­же­ния тра­фика? Ско­рее всего, это было оче­ред­ное обнов­ле­ние Пинг­вина, кото­рое всту­пило в силу 4 октября того же года.

Алго­ритм Колибри был раз­ра­бо­тан для того, чтобы лучше пони­мать запросы поль­зо­ва­те­лей. Теперь, когда поль­зо­ва­тель вво­дит запрос «В каких местах можно вкусно поесть в Ека­те­рин­бурге», поис­ко­вая система пони­мает, что под сло­вом «места» поль­зо­ва­тель под­ра­зу­ме­вает ресто­раны и кафе.

Как поднять себя в глазах Google Колибри?

Поскольку Google стре­мится как можно лучше пони­мать поль­зо­ва­те­лей, вы должны делать то же самое. Созда­вайте кон­тент, кото­рый будет давать мак­си­мально раз­вер­ну­тые и полез­ные ответы на запросы поль­зо­ва­те­лей, вме­сто того, чтобы зацик­ли­ваться на про­дви­же­нии по клю­че­вым сло­вам.

В заключение

Как видите, все поис­ко­вые алго­ритмы пре­сле­дуют одну цель – заста­вить веб-масте­ров созда­вать каче­ствен­ный, инте­рес­ный и полез­ный кон­тент. Помните: Google посто­янно рабо­тает над повы­ше­нием каче­ства резуль­та­тов поиска. Созда­вайте кон­тент, кото­рый помо­жет поль­зо­ва­те­лям найти реше­ние их про­блем, и пер­вые места в выдаче вам гаран­ти­ро­ваны.


Давным давно, в далёкой-далёкой галактике, поисковая система Google создала алгоритм, который получил название Panda. Разработали этот алгоритм всего два человека, это Амит Сингал вместе Мэтт Катс. Этот алгоритм отличается от своих собратьев тем, что, прежде всего он рассчитан на человеческий фактор. А также алгоритм учитывает и другие факторы при ранжировании сайта.

В этом материала мы постарались собрать всё, что может касаться алгоритма Google Panda, как его определить и как под него не попасть, чтобы с успехом .

Количество и качество ссылок (ссылочный профиль)

Алгоритм также учитывает ссылки. Причём он учитывает все ссылки, и входящие и исходящие. Требование всего одно, и тот и другой сайт должен быть одной тематики. Конечно же, алгоритм отслеживает количество входящих и исходящих ссылок, но это не самый важный фактор при ранжировании сайта. Первое, что его интересует, это человеческий фактор. Другими словами, он внимательно смотрит за пользователем на сайте. Что он делает, сколько времени проводит, читает ли он материал, заполняет ли формы и так далее. Конечно, разработчики проделали огромную работу, по созданию и обкатке этого алгоритма. По сути, этот алгоритм потребовал шлифовки и других алгоритмов, чтобы поисковая система могла выдавать только качественные сайты.

При введении этого алгоритма при ранжировании сайта, попасть в ТОП поисковой выдачи могут только реально полезные и качественные сайты. Именно этот алгоритм, и сделал поисковую систему Google мощным поисковым инструментом. Это подтверждается тем, что аудитория Гугл растёт в геометрической прогрессии. Более того, бюджет компании так же растёт как на дрожжах. Ведь обмануть пользователя ещё можно, используя так называемые чёрные методы продвижения. Различные фишки и агрессивную рекламу. А вот инвестора обмануть нельзя, и он прекрасно знает и осознаёт, что Гугл – дело прибыльное.

Конечно, такой рост компании это заслуга не только одного алгоритма. А теперь вернёмся к теме статьи.

Поведенческие факторы

В этот показатель входит целый ряд критериев, такие как:

  • показатель отказов;
  • сколько времени проводит человек на сайте за одну сессию;
  • сколько страниц он посетил за один визит;
  • возвращается ли он на сайт и как часто;
  • сколько показывается сайт в выдаче, и сколько переходят по ссылке (CTR).

Все это алгоритм отслеживает, причём он делает это для каждого пользователя. То есть он следит за каждым посетителем и внимательно смотрит, что он делает, переходит ли по ссылкам, заполняет ли формы, прокручивает страницу вниз или нет и так далее. Таким образом, алгоритм определяет, отвечает ли на запросы пользователь сайт или отдельная страница и находит ли пользователь ответ на запрос введённый в поисковую строку.

Как понять, что сайт попал под фильтр Panda и что делать?

  1. Резкое падение трафика. Если Вы обнаружили, что количество переходов из Google резко снизилось, то одной из возможных причин, может являться Panda и технические проблемы сайта, которые не были выявлены:
    — медленный ответ сервера;
    — недоступность страниц и прочие.
    Чтобы проверить это внимательно проанализируйте данный и .
  2. Аккуратнее с ссылками. Хоть ссылки для Google остаются ключевым факторам ранжирования, не стоит слишком заострять внимание на них, потому что поисковик давно научился отличать естественные ссылки от закупленных, а так же выявлять неествественный прирост ссылочной массы.
  3. Плохие тексты. Тексты написанные не человеческим языком, с множеством орфографических ошибок, короткие, не уникальные и размещённые в виде газетной полосы — убьют любой сайт, так как служат сигналом для Панды понизить сайт в выдаче.
    Что делать? Пишите качественный, уникальный контент, который полезен для пользователей, тщательно его проверяйте и редактируйте.
  4. Нет видео и фото. Если Вы не разбавляйте содержание статей и страниц сайта, картинками, инфографикой и видео, то глазу читателя просто не за что зацепиться и если это плохо для пользователя, значит это не нравится Панде.
    Добавляйте больше оптимизированных фото и видео, заполняя атрибуты alt и title .
  5. Мало внутренних ссылок. Зайдя на сайт, пользователь должен легко и не принуждёно перемещаться по нему, при этом попадая именно на те страницы, которые он ожидал увидеть. И здесь очень важно сделать грамотную внутреннюю перелинковку, которая позволит переходить на такие страницы. Так же отличным решением будет разместить виджеты с последними записями в блоге, самыми популярными статьями и наиболее интересными разделами.

И помните: «Лучше не злите Панду!».

В августе 2011 года введённый в действие для всех сегментов Всемирной паутины. Для англоязычных интернет-пользователей алгоритм был запущен немного ранее – в апреле того же года. Разработчиками нового алгоритма стали сотрудники поискового гиганта Амит Сингал и Мэтт Катс. Новый алгоритм радикально отличается от прежних разработок своей ориентированностью на человеческий фактор. Однако алгоритм учитывает при ранжировании и обычные критерии.

Уникальность контента

Неповторимость текстового наполнения учитывается Пандой в виде процентного соотношения копипаста как для конкретной страницы, так и для сайта в целом. Другими словами, теперь наличие заимствований ухудшает не только позиции конкретной страницы, но и всего «пиратского» ресурса. Плюс к тому, Панда легко отслеживает такой показатель, как шаблонность. Проще говоря, алгоритм устанавливает похожие по содержанию страницы, контент которых создаётся даже под разные ключевые запросы .

Релевантность рекламы

Реклама детского питания, размещённая на странице интернет-магазина, который продаёт тяжёлые грузовики, почти гарантированно вызовет «неудовольствие» поисковика . Такое внимание Google к качеству размещения рекламы призвано остудить пыл к зарабатыванию денег неразборчивыми оптимизаторами и веб-мастерами . Цель – поднятие сайтов, по-настоящему соответствующих заявленной тематике

Ссылочная масса

Здесь речь идёт как о размещённых, так и об обратных ссылках . Требование одно – нахождение сайтов в едином информационном пространстве. То есть, сайты, обменивающиеся ссылочной массой, должны быть максимально схожи по тематике. Количество обратных ссылок , конечно, учитывается Пандой, но является далеко не определяющим при ранжировании.

Человеческий фактор

В данном случае было бы правильнее оперировать SEO-терминологией, в которой человеческий фактор называется поведенческим . Поисковый алгоритм Панда как никакой другой до него придирчиво учитывает поведение пользователя на сайте. Очевидно, что для этого разработчикам необходимо было колоссальное усложнение алгоритма, поэтому, к слову сказать, алгоритм так долго запускался для всего интернета – создатели до бесконечности шлифовали поисковые инструменты.

Однако результаты, прямо скажем, впечатляют. На топовые позиции в Google на сегодня способны выйти по-настоящему полезные сайты. Благодаря использованию нового алгоритма поисковая система Google реально стала мощнейшим поисковиком на планете, что подтверждается не только ростом количества пользователей этого сервиса, но и уровнем капитализации Google, который перевалил за 200 миллиардов долларов. Пользователя ещё можно обмануть различными модными фишками и агрессивной рекламой, но инвестора дешёвыми трюками не взять. Он чувствует, что Google – дело прибыльное. И это не в последнюю очередь благодаря Панде.

Итак, поведенческие факторы. К ним относится, в принципе ограниченный набор критериев:

  • показатель отказов;
  • время, проведенное пользователем на сайте;
  • соотношение возвратов на сайт к общему количеству переходов.

Причём, Панда обращает внимание, так сказать, на деталировку каждого показателя. Проще говоря, учитывается, например, не только время, в течение которого пользователь оставался на сайте, но и то, какие действия он там производил, к примеру, совершал ли переходы по ссылкам, так или иначе относящимся к предмету, который содержался в ключевом запросе. Словом, алгоритм даёт возможность определить не только факт привлекательности и полезности данного ресурса для пользователя, но и степень этой привлекательности, средства, которые делают данный сайт таковым.

Оптимизатор, продвигающий сайты в Google, может сегодня даже при сравнительно небольшой ссылочной массе получить достаточно высокие позиции в выдаче . Для этого необходима грамотная перелинковка внутренних страниц сайта и в целом повышение удобства ресурса для каждого пользователя – и для гуру, и для того, кто лишь вчера услышал слово «интернет». На этом стоит новый поисковый алгоритм Google – Panda.

Более года назад многие оптимизаторы и владельцы сайтов открыли для себя новые понятия. Именно тогда Гугл презентовал два своих фильтра – Панда и Пингвин. В одной из своих статей «Фильтры Гугла – чудо зверинец» я детально проанализировал все основные санкции которые вы можете получить за нарушение правил оптимизации сайта. Пингвин и Панда – это новая ветвь эволюции предыдущих фильтров. Они более совершенны, работают жестко, четко и точечно. Каждый фильтр наказывает сайты за конкретные нарушения. Сегодня мы постараемся детально разобраться с этим зверинцем от Гугла, проанализируем основные ошибки из-за каких сайт может попасть под фильтр, и поговорим о том, как выйти из под Пингвина или Панды.

Рекомендуем прочитать:

Фильтр Панда от Гугла

Все началось в феврале 2011 года. Многие оптимизаторы, проснувшись утром и выпив чашечку кофе, занялись уже привычных для себя дело – проверка позиций и посещаемости своих сайтов. И каково было их удивление, когда в заветном ТОП5 их сайтов не оказалось, хотя еще вчера они были там, а трафик упал в несколько раз. Как сейчас помню, переполох на всех СЕО форумах и блогах был невероятный. Многие не могли понять, в чем причина, чего так резко упал трафик с гугла, и как с этим бороться. Как оказалось, всему причиной стал запуск нового алгоритма Гугл Панда, который задел не только откровенные ГС, но и вполне белые сайты, крепко закрепившиеся в ТОПе и работающие не первый год.

Гугл как всегда впереди планеты всей. Веб мастерам ничего не объяснили, никаких сведений про новый фильтр практически не было, как из под него выйти тоже мало кто понимал. Спустя несколько недель, представители поисковика удостоились выложить список факторов за которые нападает Панда. Но это был не ответ, а, скорее всего, издевательство.

1. Большое количество не уникального контента

3. Высокие показатели отказов и плохие поведенческие факторы

Как вы видите, стандартный перечень базовых нарушений из-за которых можно попасть под совершенно любой фильтр. Пользы от такого ответы практически нет, ведь каждый, кто делает СДЛ и так избегает всех этих нарушений, но от Панды и их это не спасло.

Рекомендуем прочитать:

Уже со временем стало понятно, что в основном фильтр Панда направлен на борьбу с не качественным контентом.

Как работает Панда?

Если у Вас на сайте очень много дублирующихся страниц, страниц с копипастом или переспамленным текстом, то они очень сильно понижаются в выдаче и уходят далеко за ТОП100. Также Панда бьет по пустым, техническим и не несущих никакой пользы читателю страницам.

Как не попасть под фильтр?

Вроде бы и раньше были санкции за все вышеперечисленные нарушения, но с приходом Пингвина поисковики стали более строже относится к сайтам, анализ стал глубже и тщательней. Если раньше вы могли себе позволить допускать ошибки, то теперь нужно свести их в минимуму.

Вот что нужно сделать в первую очередь:

1. Закрываем от индексации все пустые страницы, те которые не предназначены для пользователя или несут не уникальную информацию. К таким страницам можно отнести профили на форумах, формы регистрации, страницы с копипастом, странице которые находятся в разработке и т.д

2. Максимально избавляемся от всех дублирующихся страниц. Как это сделать я детально написал в статье « ».

3. Панда – это настолько привередливый фильтр, что даже несколько плохих страниц могут пошатнуть весь сайт. Внимательно следите за контентом, особенно на тех сайтах, где пользователи имеют возможность его добавлять.

4. Поднимайте социальную активность. Добавьте на все страницы кнопки соц. Сетей, чтоб пользователь мог рассказать про интересный материал.

5. Длина контента тоже может повлиять на качество страницы и всего сайта. Если у Вас маленький текст (до 1000 символов), то делайте его максимально интересным. Если же пишите больше статьи, то обязательно структурируйте, используя для этого теги разметки h1-h6.

Рекомендуем прочитать:

Не стоит путать Панду с новым алгоритмом ранжирования. Это не так. Панда – классический фильтр Гугла, который время от времени с распростертыми объятьями заходит в гости к сайтам. У Яндекса есть аналог – фильтр АГС , и с каждым днем эти два «монстра» становятся все больше и больше похожи. По этому, если вы делаете все правильно, то никакая Панда и АГС вам не страшны.

Стоит отметить, что с момента своего первого запуска и по сегодняшний день, фильтр Панда уже несколько раз менялся и дополнялся. Основа осталась такой же, но роботы стали более умнее, и делают меньше ошибок.
Вот совсем недавно Мэтт Каттс, руководитель компании Гугл, заявил, что Панда усовершенствуется каждый месяц, а глобальные обновления проходят раз в 3-4 месяца. Одно из последних было анонсировано 11 июня 2013 года. Как всегда, у Гугла с креативом хорошо – данный апдейт назвали Танец Панды.

Фильтр Пингвин – продолжение зверинца Гугла

Не успели оптимизаторы приспособится к одному зверю, как Гугл анонсировал выход нового фильтра Пингвин. Вот мне всегда было интересно, почему такие милые названия для столь жестких фильтров. Наверное это аналогия с самыми ужасными ураганами, которые называют женскими именами типа Сенди или Лиза.

24 апреля 2012 года – в этот солнечный день на просторах Рунета начал свою деятельность милый Пингвин. Но милым и пушистым он будет только для тех, кто не переусердствует с покупными ссылками, а если и покупает, то делает это грамотно и с умом. Также фильтр борется с поисковым спамом и черным СЕО с помощью которого пользователь пытается манипулировать выдачей.

Рекомендуем прочитать:

Что ж нужно понимать под поисковым спамом:

1. Клоакинг – скрытие части текста или какого-то элемента страницы от пользователя, но в тоже время оставив видимым для поискового робота.

2. Переспам ключами в текстах.

3. Наличие неестественных ссылок которые ведут на Ваш сайт.

Больше всего проблем возникло именно с третьим пунктом. Если у Вас очень много одинаковых анкоров ведущих на сайт, преобладают ссылки с нетематических сайтов, очень быстрый прирост беков и качество этих беков оставляет желать лучшего, то Пингвин может клюнуть достаточно сильно.
В связи с этим, многие СЕО специалисты стали отмечать, что для продвижении в Гугле нужно использовать как минимум 50% безанкорных ссылок, и не более 20% анкоров с прямым вхождением ключа.

Как не попасть под фильтр?

Пингвин направлен на отслеживание внешних факторов продвижения вашего сайта. В связи в этим нужно соблюдать просты правила:

1. Не занимайтесь массовыми прогонами своего сайта по тысячам каталогов и форумов

3. Около 50% ссылок ведущих на ваш сайт должны быть безанкорные, и не более 20% с прямым вхождением ключа.

4. Также обратите внимание на перелинковку на сайте. Это не 100%, но есть мнение, что внутренние ссылки тоже желательно делать с разными анкорами и максимально разбавлять.

Рекомендуем прочитать:

Последнее обновление фильтра Пингвин произошло 22 мая 2013 года. Именно тогда многие веб мастера получили в сообщения в Веб Мастере Гугла о том, что на их сайт ведут неестественные ссылки, и если не принять никаких мер, то сайт сильно потеряет позиции. Я знаю людей, у которых трафик упал на 90-95%, с 10.000 до 500-700 человек в день.

Фильтры Панда и Пингвин — выводы

И в конце статьи можно сделать вывод, что запуском Пингвина и Панды Гугл постарался структурировать и объединить все существующие фильтры в два разных фильтра. Один из них отвечает за качество внутренней составляющей сайт, другой за внешнюю оптимизацию и продвижение. Скажу так, что если делать все грамотно, создавать сайт для людей, не переусердствовать с закупкой ссылок и придерживаться основ внутренней оптимизации, то никакие звери Вам не страшны. Развивайте свои сайты, пишите хорошие статьи, зарабатывайте деньги.

Алгоритм ранжирования Google Panda действует с начала 2011 г. Его основной задачей является оценка качества контента. Именно благодаря Панде поисковая выдача чистится от бесполезных и нерелевантных сайтов. С 2015 г. ей на помощь пришел искусственный интеллект - алгоритм RankBrain. А с начала 2016 г. разные алгоритмы ранжирования объединили в один общий алгоритм.

Как проверить, попал ли сайт под фильтр Панды

Еще пару лет назад seo-специалисты знали даты обновлений алгоритма Гугл Панда и могли связать падение органического трафика с попаданием сайта под фильтр. Но представители Google в каждом обращении заявляют, что они намеренно скрывают информацию, связанную с ранжированием и санкциями. Они хотят исключить возможность подтасовки результатов поисковой выдачи со стороны недобросовестных seo-оптимизаторов.

Теперь обновления фильтров в Google происходят комплексно сразу всех алгоритмов. Из-за этого тяжело понять, почему именно ресурс попал под санкции. Что привело к потере позиций: ссылки, тексты или что-то другое. Обращение к техническим специалистам Google также не добавляет ясности, потому что они отвечают общими фразами.

Понять, есть ли фильтр, не сложно. У сайта с высокой посещаемостью сильно падает трафик из Google, у молодых сайтов в течение длительного времени наблюдается практически нулевой трафик. Дополнительно проверяйте сайт в сервисе Feinternational.com. Он использует десять баз индексации Google в разных странах и показывает проверки алгоритмами Panda, Penguin, Phantom, Mobile-Friendly.


Чтобы определить вероятность санкций со стороны Google Panda, представители поисковика советуют провести самостоятельный аудит сайта. Почитайте материалы на своем ресурсе и ответьте на вопросы:

  • может ли подобный материал выйти в виде книги или печатного журнала?
  • как много и часто выходят новые материалы?
  • вы бы сами подписались на рассылку от такого сайта?
  • доверяете ли вы сами размещенной информации?
  • стали бы вы платить банковской картой через этот сайт?

Если вы даете ответы не в пользу ресурса, советуем кардинально поменять подход к работе: к поиску инфоповодов, созданию материалов и привлечению экспертов.

Чтобы проверить качество контента техническими методами, воспользуйтесь бесплатным сервисом «