Несмотря на то, что изменения в алгоритмах Google – одна из самых животрепещущих тем в сфере SEO , многие маркетологи не могут с уверенностью сказать, как именно алгоритмы Панда, Пингвин и Колибри повлияли на ранжирование их сайтов.
Специалисты компании Moz подытожили наиболее значимые изменения алгоритмов Google и буквально разложили по полочкам информацию о том, за что отвечает каждое обновление.
Алгоритм Панда, главной целью которого является повышение качества результатов поиска , был запущен 23 февраля 2011 года. С его появлением тысячи сайтов потеряли свои позиции, что взбудоражило весь Интернет. Поначалу оптимизаторы думали, что Панда штрафует сайты, замеченные в участии в ссылочных схемах. Но, как позже стало известно, борьба с неестественными ссылками не входит в круг полномочий этого алгоритма. Все, чем он занимается, – это оценка качества сайта.
Чтобы узнать, не угрожает ли вам опасность попасть под фильтр Панды, ответьте на такие вопросы:
Какие именно факторы учитывает Панда при ранжировании сайтов, наверняка не знает никто. Поэтому лучше всего сфокусироваться на создании максимально интересного и полезного сайта. В особенности вам нужно уделить внимание таким моментам:
Google ежемесячно обновляет алгоритм Панда. После каждого обновления поисковые роботы пересматривают все сайты и проверяют их на соответствие установленным критериям. Если вы попали под фильтр Панда, после чего внесли изменения на сайте (изменили недостаточный, некачественный и неуникальный контент), позиции вашего сайта улучшатся после очередного обновления. Учтите, что, скорее всего, вам придется ждать восстановления позиций несколько месяцев.
Алгоритм Google Пингвин был запущен 24 апреля 2012 года. В отличие от Панды, этот алгоритм нацелен на борьбу с неестественными обратными ссылками .
Авторитет и значимость сайта в глазах поисковых систем во многом зависит от того, какие сайты на него ссылаются. При этом одна ссылка с авторитетного источника может иметь такой же вес, как десятки ссылок с малоизвестных сайтов. Поэтому раньше оптимизаторы стремились всеми возможными путями получить максимальное количество внешних ссылок.
Google научился распознавать разные манипуляции с ссылками. Как именно работает Пингвин, известно только его разработчикам. Все, что известно оптимизаторам, так это то, что этот алгоритм охотится за некачественными ссылками, созданными веб-мастерами вручную с целью повлиять на позиции сайта. Сюда относятся:
Пингвин – такой же фильтр, как и Панда. Это означает, что он регулярно обновляется и пересматривает сайты. Чтобы выйти из-под фильтра Пингвин, вам нужно избавиться от всех неестественных ссылок и ждать обновления.
Если вы добросовестно последуете рекомендациям Google и не будете пытаться получить ссылки нечестным путем, то сможете вернуть себе расположение поисковых систем. Однако чтобы вернуть первые позиции, вам не достаточно будет просто удалить некачественные ссылки. Вместо них вам нужно заработать естественные редакторские ссылки с трастовых сайтов.
Алгоритм Колибри – это совсем другой «зверь». Google объявил о запуске этого обновления 26 сентября 2013 года, но он также упомянул о том, что этот алгоритм действует уже на протяжении месяца. Вот почему владельцы сайтов, позиции которых упали в начале октября 2013 года, ошибочно полагают, что они попали под фильтр Колибри. Если бы это действительно было так, они ощутили бы действие этого алгоритма на месяц раньше. Вы спросите, а что же в таком случае послужило причиной снижения трафика? Скорее всего, это было очередное обновление Пингвина, которое вступило в силу 4 октября того же года.
Алгоритм Колибри был разработан для того, чтобы лучше понимать запросы пользователей. Теперь, когда пользователь вводит запрос «В каких местах можно вкусно поесть в Екатеринбурге», поисковая система понимает, что под словом «места» пользователь подразумевает рестораны и кафе.
Поскольку Google стремится как можно лучше понимать пользователей, вы должны делать то же самое. Создавайте контент, который будет давать максимально развернутые и полезные ответы на запросы пользователей, вместо того, чтобы зацикливаться на продвижении по ключевым словам.
Как видите, все поисковые алгоритмы преследуют одну цель – заставить веб-мастеров создавать качественный, интересный и полезный контент. Помните: Google постоянно работает над повышением качества результатов поиска. Создавайте контент, который поможет пользователям найти решение их проблем, и первые места в выдаче вам гарантированы.
Давным давно, в далёкой-далёкой галактике, поисковая система Google создала алгоритм, который получил название Panda. Разработали этот алгоритм всего два человека, это Амит Сингал вместе Мэтт Катс. Этот алгоритм отличается от своих собратьев тем, что, прежде всего он рассчитан на человеческий фактор. А также алгоритм учитывает и другие факторы при ранжировании сайта.
В этом материала мы постарались собрать всё, что может касаться алгоритма Google Panda, как его определить и как под него не попасть, чтобы с успехом .
Алгоритм также учитывает ссылки. Причём он учитывает все ссылки, и входящие и исходящие. Требование всего одно, и тот и другой сайт должен быть одной тематики. Конечно же, алгоритм отслеживает количество входящих и исходящих ссылок, но это не самый важный фактор при ранжировании сайта. Первое, что его интересует, это человеческий фактор. Другими словами, он внимательно смотрит за пользователем на сайте. Что он делает, сколько времени проводит, читает ли он материал, заполняет ли формы и так далее. Конечно, разработчики проделали огромную работу, по созданию и обкатке этого алгоритма. По сути, этот алгоритм потребовал шлифовки и других алгоритмов, чтобы поисковая система могла выдавать только качественные сайты.
При введении этого алгоритма при ранжировании сайта, попасть в ТОП поисковой выдачи могут только реально полезные и качественные сайты. Именно этот алгоритм, и сделал поисковую систему Google мощным поисковым инструментом. Это подтверждается тем, что аудитория Гугл растёт в геометрической прогрессии. Более того, бюджет компании так же растёт как на дрожжах. Ведь обмануть пользователя ещё можно, используя так называемые чёрные методы продвижения. Различные фишки и агрессивную рекламу. А вот инвестора обмануть нельзя, и он прекрасно знает и осознаёт, что Гугл – дело прибыльное.
Конечно, такой рост компании это заслуга не только одного алгоритма. А теперь вернёмся к теме статьи.
В этот показатель входит целый ряд критериев, такие как:
Все это алгоритм отслеживает, причём он делает это для каждого пользователя. То есть он следит за каждым посетителем и внимательно смотрит, что он делает, переходит ли по ссылкам, заполняет ли формы, прокручивает страницу вниз или нет и так далее. Таким образом, алгоритм определяет, отвечает ли на запросы пользователь сайт или отдельная страница и находит ли пользователь ответ на запрос введённый в поисковую строку.
И помните: «Лучше не злите Панду!».
В августе 2011 года введённый в действие для всех сегментов Всемирной паутины. Для англоязычных интернет-пользователей алгоритм был запущен немного ранее – в апреле того же года. Разработчиками нового алгоритма стали сотрудники поискового гиганта Амит Сингал и Мэтт Катс. Новый алгоритм радикально отличается от прежних разработок своей ориентированностью на человеческий фактор. Однако алгоритм учитывает при ранжировании и обычные критерии.
Неповторимость текстового наполнения учитывается Пандой в виде процентного соотношения копипаста как для конкретной страницы, так и для сайта в целом. Другими словами, теперь наличие заимствований ухудшает не только позиции конкретной страницы, но и всего «пиратского» ресурса. Плюс к тому, Панда легко отслеживает такой показатель, как шаблонность. Проще говоря, алгоритм устанавливает похожие по содержанию страницы, контент которых создаётся даже под разные ключевые запросы .
Реклама детского питания, размещённая на странице интернет-магазина, который продаёт тяжёлые грузовики, почти гарантированно вызовет «неудовольствие» поисковика . Такое внимание Google к качеству размещения рекламы призвано остудить пыл к зарабатыванию денег неразборчивыми оптимизаторами и веб-мастерами . Цель – поднятие сайтов, по-настоящему соответствующих заявленной тематике
Здесь речь идёт как о размещённых, так и об обратных ссылках . Требование одно – нахождение сайтов в едином информационном пространстве. То есть, сайты, обменивающиеся ссылочной массой, должны быть максимально схожи по тематике. Количество обратных ссылок , конечно, учитывается Пандой, но является далеко не определяющим при ранжировании.
В данном случае было бы правильнее оперировать SEO-терминологией, в которой человеческий фактор называется поведенческим . Поисковый алгоритм Панда как никакой другой до него придирчиво учитывает поведение пользователя на сайте. Очевидно, что для этого разработчикам необходимо было колоссальное усложнение алгоритма, поэтому, к слову сказать, алгоритм так долго запускался для всего интернета – создатели до бесконечности шлифовали поисковые инструменты.
Однако результаты, прямо скажем, впечатляют. На топовые позиции в Google на сегодня способны выйти по-настоящему полезные сайты. Благодаря использованию нового алгоритма поисковая система Google реально стала мощнейшим поисковиком на планете, что подтверждается не только ростом количества пользователей этого сервиса, но и уровнем капитализации Google, который перевалил за 200 миллиардов долларов. Пользователя ещё можно обмануть различными модными фишками и агрессивной рекламой, но инвестора дешёвыми трюками не взять. Он чувствует, что Google – дело прибыльное. И это не в последнюю очередь благодаря Панде.
Итак, поведенческие факторы. К ним относится, в принципе ограниченный набор критериев:
Причём, Панда обращает внимание, так сказать, на деталировку каждого показателя. Проще говоря, учитывается, например, не только время, в течение которого пользователь оставался на сайте, но и то, какие действия он там производил, к примеру, совершал ли переходы по ссылкам, так или иначе относящимся к предмету, который содержался в ключевом запросе. Словом, алгоритм даёт возможность определить не только факт привлекательности и полезности данного ресурса для пользователя, но и степень этой привлекательности, средства, которые делают данный сайт таковым.
Оптимизатор, продвигающий сайты в Google, может сегодня даже при сравнительно небольшой ссылочной массе получить достаточно высокие позиции в выдаче . Для этого необходима грамотная перелинковка внутренних страниц сайта и в целом повышение удобства ресурса для каждого пользователя – и для гуру, и для того, кто лишь вчера услышал слово «интернет». На этом стоит новый поисковый алгоритм Google – Panda.
Более года назад многие оптимизаторы и владельцы сайтов открыли для себя новые понятия. Именно тогда Гугл презентовал два своих фильтра – Панда и Пингвин. В одной из своих статей «Фильтры Гугла – чудо зверинец» я детально проанализировал все основные санкции которые вы можете получить за нарушение правил оптимизации сайта. Пингвин и Панда – это новая ветвь эволюции предыдущих фильтров. Они более совершенны, работают жестко, четко и точечно. Каждый фильтр наказывает сайты за конкретные нарушения. Сегодня мы постараемся детально разобраться с этим зверинцем от Гугла, проанализируем основные ошибки из-за каких сайт может попасть под фильтр, и поговорим о том, как выйти из под Пингвина или Панды.
Рекомендуем прочитать:
|
Все началось в феврале 2011 года. Многие оптимизаторы, проснувшись утром и выпив чашечку кофе, занялись уже привычных для себя дело – проверка позиций и посещаемости своих сайтов. И каково было их удивление, когда в заветном ТОП5 их сайтов не оказалось, хотя еще вчера они были там, а трафик упал в несколько раз. Как сейчас помню, переполох на всех СЕО форумах и блогах был невероятный. Многие не могли понять, в чем причина, чего так резко упал трафик с гугла, и как с этим бороться. Как оказалось, всему причиной стал запуск нового алгоритма Гугл Панда, который задел не только откровенные ГС, но и вполне белые сайты, крепко закрепившиеся в ТОПе и работающие не первый год.
Гугл как всегда впереди планеты всей. Веб мастерам ничего не объяснили, никаких сведений про новый фильтр практически не было, как из под него выйти тоже мало кто понимал. Спустя несколько недель, представители поисковика удостоились выложить список факторов за которые нападает Панда. Но это был не ответ, а, скорее всего, издевательство.
1. Большое количество не уникального контента
3. Высокие показатели отказов и плохие поведенческие факторы
Как вы видите, стандартный перечень базовых нарушений из-за которых можно попасть под совершенно любой фильтр. Пользы от такого ответы практически нет, ведь каждый, кто делает СДЛ и так избегает всех этих нарушений, но от Панды и их это не спасло.
Рекомендуем прочитать:
|
Уже со временем стало понятно, что в основном фильтр Панда направлен на борьбу с не качественным контентом.
Как работает Панда?
Если у Вас на сайте очень много дублирующихся страниц, страниц с копипастом или переспамленным текстом, то они очень сильно понижаются в выдаче и уходят далеко за ТОП100. Также Панда бьет по пустым, техническим и не несущих никакой пользы читателю страницам.
Как не попасть под фильтр?
Вроде бы и раньше были санкции за все вышеперечисленные нарушения, но с приходом Пингвина поисковики стали более строже относится к сайтам, анализ стал глубже и тщательней. Если раньше вы могли себе позволить допускать ошибки, то теперь нужно свести их в минимуму.
Вот что нужно сделать в первую очередь:
1. Закрываем от индексации все пустые страницы, те которые не предназначены для пользователя или несут не уникальную информацию. К таким страницам можно отнести профили на форумах, формы регистрации, страницы с копипастом, странице которые находятся в разработке и т.д
2. Максимально избавляемся от всех дублирующихся страниц. Как это сделать я детально написал в статье « ».
3. Панда – это настолько привередливый фильтр, что даже несколько плохих страниц могут пошатнуть весь сайт. Внимательно следите за контентом, особенно на тех сайтах, где пользователи имеют возможность его добавлять.
4. Поднимайте социальную активность. Добавьте на все страницы кнопки соц. Сетей, чтоб пользователь мог рассказать про интересный материал.
5. Длина контента тоже может повлиять на качество страницы и всего сайта. Если у Вас маленький текст (до 1000 символов), то делайте его максимально интересным. Если же пишите больше статьи, то обязательно структурируйте, используя для этого теги разметки h1-h6.
Рекомендуем прочитать:
|
Не стоит путать Панду с новым алгоритмом ранжирования. Это не так. Панда – классический фильтр Гугла, который время от времени с распростертыми объятьями заходит в гости к сайтам. У Яндекса есть аналог – фильтр АГС , и с каждым днем эти два «монстра» становятся все больше и больше похожи. По этому, если вы делаете все правильно, то никакая Панда и АГС вам не страшны.
Стоит отметить, что с момента своего первого запуска и по сегодняшний день, фильтр Панда уже несколько раз менялся и дополнялся. Основа осталась такой же, но роботы стали более умнее, и делают меньше ошибок.
Вот совсем недавно Мэтт Каттс, руководитель компании Гугл, заявил, что Панда усовершенствуется каждый месяц, а глобальные обновления проходят раз в 3-4 месяца. Одно из последних было анонсировано 11 июня 2013 года. Как всегда, у Гугла с креативом хорошо – данный апдейт назвали Танец Панды.
Не успели оптимизаторы приспособится к одному зверю, как Гугл анонсировал выход нового фильтра Пингвин. Вот мне всегда было интересно, почему такие милые названия для столь жестких фильтров. Наверное это аналогия с самыми ужасными ураганами, которые называют женскими именами типа Сенди или Лиза.
24 апреля 2012 года – в этот солнечный день на просторах Рунета начал свою деятельность милый Пингвин. Но милым и пушистым он будет только для тех, кто не переусердствует с покупными ссылками, а если и покупает, то делает это грамотно и с умом. Также фильтр борется с поисковым спамом и черным СЕО с помощью которого пользователь пытается манипулировать выдачей.
Рекомендуем прочитать:
|
Что ж нужно понимать под поисковым спамом:
1. Клоакинг – скрытие части текста или какого-то элемента страницы от пользователя, но в тоже время оставив видимым для поискового робота.
2. Переспам ключами в текстах.
3. Наличие неестественных ссылок которые ведут на Ваш сайт.
Больше всего проблем возникло именно с третьим пунктом. Если у Вас очень много одинаковых анкоров ведущих на сайт, преобладают ссылки с нетематических сайтов, очень быстрый прирост беков и качество этих беков оставляет желать лучшего, то Пингвин может клюнуть достаточно сильно.
В связи с этим, многие СЕО специалисты стали отмечать, что для продвижении в Гугле нужно использовать как минимум 50% безанкорных ссылок, и не более 20% анкоров с прямым вхождением ключа.
Как не попасть под фильтр?
Пингвин направлен на отслеживание внешних факторов продвижения вашего сайта. В связи в этим нужно соблюдать просты правила:
1. Не занимайтесь массовыми прогонами своего сайта по тысячам каталогов и форумов
3. Около 50% ссылок ведущих на ваш сайт должны быть безанкорные, и не более 20% с прямым вхождением ключа.
4. Также обратите внимание на перелинковку на сайте. Это не 100%, но есть мнение, что внутренние ссылки тоже желательно делать с разными анкорами и максимально разбавлять.
Рекомендуем прочитать:
|
Последнее обновление фильтра Пингвин произошло 22 мая 2013 года. Именно тогда многие веб мастера получили в сообщения в Веб Мастере Гугла о том, что на их сайт ведут неестественные ссылки, и если не принять никаких мер, то сайт сильно потеряет позиции. Я знаю людей, у которых трафик упал на 90-95%, с 10.000 до 500-700 человек в день.
И в конце статьи можно сделать вывод, что запуском Пингвина и Панды Гугл постарался структурировать и объединить все существующие фильтры в два разных фильтра. Один из них отвечает за качество внутренней составляющей сайт, другой за внешнюю оптимизацию и продвижение. Скажу так, что если делать все грамотно, создавать сайт для людей, не переусердствовать с закупкой ссылок и придерживаться основ внутренней оптимизации, то никакие звери Вам не страшны. Развивайте свои сайты, пишите хорошие статьи, зарабатывайте деньги.
Алгоритм ранжирования Google Panda действует с начала 2011 г. Его основной задачей является оценка качества контента. Именно благодаря Панде поисковая выдача чистится от бесполезных и нерелевантных сайтов. С 2015 г. ей на помощь пришел искусственный интеллект - алгоритм RankBrain. А с начала 2016 г. разные алгоритмы ранжирования объединили в один общий алгоритм.
Еще пару лет назад seo-специалисты знали даты обновлений алгоритма Гугл Панда и могли связать падение органического трафика с попаданием сайта под фильтр. Но представители Google в каждом обращении заявляют, что они намеренно скрывают информацию, связанную с ранжированием и санкциями. Они хотят исключить возможность подтасовки результатов поисковой выдачи со стороны недобросовестных seo-оптимизаторов.
Теперь обновления фильтров в Google происходят комплексно сразу всех алгоритмов. Из-за этого тяжело понять, почему именно ресурс попал под санкции. Что привело к потере позиций: ссылки, тексты или что-то другое. Обращение к техническим специалистам Google также не добавляет ясности, потому что они отвечают общими фразами.
Понять, есть ли фильтр, не сложно. У сайта с высокой посещаемостью сильно падает трафик из Google, у молодых сайтов в течение длительного времени наблюдается практически нулевой трафик. Дополнительно проверяйте сайт в сервисе Feinternational.com. Он использует десять баз индексации Google в разных странах и показывает проверки алгоритмами Panda, Penguin, Phantom, Mobile-Friendly.
Чтобы определить вероятность санкций со стороны Google Panda, представители поисковика советуют провести самостоятельный аудит сайта. Почитайте материалы на своем ресурсе и ответьте на вопросы:
Если вы даете ответы не в пользу ресурса, советуем кардинально поменять подход к работе: к поиску инфоповодов, созданию материалов и привлечению экспертов.
Чтобы проверить качество контента техническими методами, воспользуйтесь бесплатным сервисом «