В нутренняя оптимизация сайта — это неотъемлемая часть раскрутки сайта , которую необходимо проводить до продвижения веб-ресурса. Этот вид оптимизации направлен на улучшение качества веб-сайта, а как известно, качественные СДЛ ресурсы ценятся поисковиками, а значит они выше находятся в поиске и получают больше трафика.
Прежде, чем приступить к продвижению, нужно позаботиться о внутренних проблемах веб-сайта — провести ряд трудоемких, а порой нудных работ, направленных на устранение возможных проблем и исправление ошибок. Важно понимать, что неправильно оптимизированный ресурс с кучей недоделок в ТОП не попадет.
Также, стоит отметить, что работы по "внутрянке" следует выполнять самостоятельно, либо заказать у специалистов "1PS Оптимизация сайтов " — ведь ни одна программа сама не наведет порядок на вашем сайте. И чтобы правильно сделать внутреннюю оптимизацию, нужно знать какие основные факторы на нее влияют, которые считаются базовыми для любого проекта — будь это интернет-магазин, личный блог или корпоративный сайт.
Из этого раздела вы узнаете:
Дизайн сайта может сыграть немаловажную роль для внутренней оптимизации вашего сайта, что впоследствии отразится на поведенческих факторах. Поэтому используйте уникальные и адаптивные шаблоны. Профессионально сверстанный макет сайта будет хорошо работать на большинстве типах устройств и правильно отображаться в браузерах.
В идеале, конечно, лучше заказать шаблон у квалифицированного верстальщика, но это может влететь в кругленькую сумму. Если бюджет не позволяет такую роскошь, то подыщите в интернете шаблон с адаптивным дизайном для вашей CMS.
Если шаблон установлен и сменить его по какой-либо причине невозможно, то не расстраивайтесь, у вас впереди еще много работы, которую предстоит выполнить.
При сканировании документа/страницы робот первым делом смотрит контейнер
— секция с различной технической информацией для поисковых машин. Но в данный момент нас интересуют теги, отвечающие за внутреннюю оптимизацию ресурса: title, description, keywords. Обычно эти теги заполняются через опцию движка сайта.Тег
Стоп-слова — цифры, частицы, предлоги, союзы, междометия, местоимения, знаки препинания.
Мета-тег description — описание страницы — расскажите поисковикам и посетителям чуть детальнее (примерно до 200 знаков — 1-2 предложения) о содержании документа. Аналогично "тайтлу", каждый "дискрипшн" должен быть уникальным и включать ключевые фразы;
Из "тайтла" и "дискрипшн" поисковики (чаще Гугл) формируют информационный блок, так называемый сниппет , который показывается в поисковой выдаче. Яндекс же формирует сниппет из текстового содержимого статьи исходя из запроса пользователя. Пример сниппета показан ниже.
Примечание. Если вы представляете интернет-магазин или какую-либо официальную компанию, то целесообразно сделать расширенный сниппет , который выглядит более привлекательно и увеличивает коэффициент кликов (CTR) в выдаче. В роли дополнительной информации может выступать, например, контактная и юридическая информация, а может быть ваше фото или логотип компании и прочее. Подробнее .
Мета-тег keywords — ключи или поисковые слова/фразы — вообще этот мета-тег не так важен, как когда-то — его роль ушла в прошлое. Поэтому его можно не заполнять, а можно через запятую перечислить ключевики, примерно до 10-15 слов. Но лучше оптимизировать тексты статей под конкретные запросы, а этот мета-тег оставить в покое.
Как прописать мета-теги? Обычно для веб-ресурсов под управлением CMS или конструктора сайтов это действие можно выполнить с помощью встроенного редактора или же дополнительного модуля, который нужно скачать и установить. Приведу несколько популярных движков:
Онлайн инструмент для генерации мета-тегов: Seolib Meta .
Релевантность страницы. Оптимизация текста (SEO-текст, семантика) — релевантность страницы запросу — подбор ключевых фраз для продвигаемых статей. Данный вид внутренней оптимизации — один из самых значимых и чему нужно уделить особое внимание:
Получается, что релевантность — это некая тонкая граница между поисковыми машинами и посетителями, ведь нужно угодить и тем и другим.
Уникальность и полезность статей. Чтобы потенциальные посетители не сразу покидали вашу страничку, тем самым не ухудшая поведенческий фактор, размещайте только уникальные, полезные и максимально интересные статьи (читайте статью , если не знаете где его взять).
Объем статьи. Как говорится, краткость — сестра таланта. Однако, объем статьи зависит от конкретного случая и примерно определяется запросом пользователя под который она пишется/создается.
Говоря о цифрах — минимум 2000 знаков без учета пробелов, а верхний предел не имеет значения (хоть 30к символов), если того требует развернутый ответ. Очень большие тексты удобно распределять на несколько страниц.
Структура текста. Даже если вы на сайте опубликуете уникальную и супер полезную информацию — это еще не значит, что цель достигнута. Важно преподнести информацию таким образом, чтобы ее было удобно читать, а значит нужно соблюсти несколько условий:
Большими — оптимально использовать 3-5 кратких предложений в каждом;
Правильная оптимизация изображений важна не только для поисковых роботов, но и для посетителей сайта, что обеспечит более быструю загрузку страниц и дополнительный трафик из поиска по картинкам.
Оптимизация изображений включает:
Примечания.
1. Немного о форматах изображений:
2. Правил по транслитерации имен изображений у Яндекса или Гугла нет, но для этой цели можно использовать сервис translit-online.ru , а для перевода слов воспользуйтесь translate.yandex.ru .
3. Если у вас на компьютере не установлен Фотошоп, то опробуйте онлайн редакторы: pixlr.com , online-fotoshop.ru .
Перелинковка — связывание страниц сайта внутренними ссылками, то есть простановка линков с одной статьи на другую. Уделяя должное внимание этой части оптимизации вы значительно сэкономите в будущем на продвижении.
В чем смысл перелинковки?
Виды перелинковки:
Как сделать контекстную перелинковку? В двух словах:
Примечание. В общих чертах про ВЧ-, СЧ-, НЧ-запросы:
Отличным примером перелинковки может служить трастовый веб-ресурс Википедия , где в статьях чуть ли не каждое слово или фраза является ссылкой на разные статьи. По аналогии делайте у себя на сайте.
Обратите внимание, что проставлена два раза ссылка с анкором "сервере" (подчеркнуто зеленым) на одну и ту же страницу. Это допускается, но поисковые роботы будут учитывать только первый линк.
Замечательные программы проверки перелинковки: Page Weight , Linkoscop .
Скорость загрузки веб-ресурса — важная составляющая внутренней оптимизации сайта, с которой нужно "плотно" поработать и разобраться с основными факторами, которые на нее негативно влияют: скрипты, неоптимизированные изображения, плагины и многое другое.
Инструменты для проверки загрузки веб-сайта:
Для улучшения индексации веб-ресурса добавьте его панель для вебмастеров. Поисковая система вам предоставит данные и рекомендации по вашему сайту, на основании которых вы сможете его улучшить и оптимизировать.
Зарегистрировать сайт следует в:
По желанию можно добавить в: Bing.com , Mail.ru .
Назначение. Файл инструкций "robots.txt" — файл в текстовом формате (*.txt), содержащий определенные команды для поисковиков. Поисковый робот, когда заходит на любой сайт, сначала читает инструкции в "роботс", а затем сканирует веб-ресурс. Данный файл можно создать у себя на компьютере с помощью Блокнота, а затем загрузить его на хостинг.
Как правило, файл содержит директивы, запрещающие сканировать определенные директории (разделы, папки, файлы) вашего сайта, информацию в которых нежелательно отправлять в индекс поисковых систем, например, похожие страницы (вроде "версия для печати"), дубли страниц, регистрационные данные пользователей, личные фото и многое другое.
Также, с помощью "роботс" можно:
Синтаксис и директивы. Чтобы поисковые роботы верно интерпретировали инструкции в файле, очень важно соблюдать правильность их написания.
Пример (разрешено индексировать весь сайт всем роботам):
User-agent: *
Disallow:
Подробнее о "роботс", синтаксисе и директивах читайте в официальной справке Яндекса и Google .
Сервисы генерации правильного "роботс": Pr-Cy Robots , Seolib Robots
Расположение. Файл "robots.txt" должен находиться в корневой папке домена , то есть в самой папке с именем вашего сайта на хостинге. Сама корневая папка может располагается в директории с названиями вроде "httpdocs", "public_html", "www" (зависит от хостинга и панели управления). Запутались? Смотрите изображение ниже.
Назначение. Карта сайта "sitemap.xml" или навигация для поисковых машин — файл с расширением *.xml, который служит источником информации обо всех страницах веб-сайта. Поисковый робот, "заглядывая" в карту, будет знать какие страницы нужно проиндексировать.
Синтаксис. Подробнее о "сэйтмэп", синтаксисе и требованиях читайте в официальной справке Яндекса и Google .
Способы сделать XML-карту сайта:
После генерации карты или создания ее вручную, не забудьте закинуть файл на свой хостинг.
Расположение. Аналогично файлу "роботс", карта "sitemap.xml" должна находиться в корне сайта (смотрите рисунок выше).
Примечание. После того как XML-карта создана и закачана на хостинг, ее нужно добавить в файл "роботс" и панели для вебмастеров (Яндекс, Google).
По сути, это страница-навигация по всему блогу/сайту, которая содержит перечень ссылок всех страниц, рубрик, подрубрик, разделов. Служит для удобства пользователей.
Ссылка на "карту сайта" должна быть проставлена на всех страницах (например, в верхнем меню или футере) вашего веб-ресурса, чтобы пользователь легко мог по ней перейти, а затем попасть в интересующий раздел.
Как сделать? Опять же, либо вручную, либо "автоматом":
Следование определенным стандартам, разработанным World Wide Web Consortium (www.w3.org), при создании сайта , означает соответствие (валидность) кода языка гипертекстовой разметки (HTML) и каскадных таблиц стилей (CSS) правилам, которые необходимо соблюдать при построении веб-ресурса.
Зачем это нужно? Валидный код — это гарантия кроссбраузерности, то есть правильного отображения страниц вашего сайта в браузерах (FireFox, Opera, Google Chrome и других) и отсутствие ошибок, тормозящих работу ресурса.
Важно! Из соображений кроссбраузерности (правда, не только) рекомендуется пользоваться обновленной версией своего любимого "интернет-друга". А ведь многие до сих пор используют устаревшие версии браузеров, что вынуждает верстальщиков и разработчиков конструкторов сайтов вставлять в код так называемые "костыли", чтобы страницы корректно показывались. Но это уже другая история.
Для чего все это сказано? Чтобы вы не пугались, если при проверке на валидацию "повалятся" ошибки, большая часть которых, наверняка, будут пустяковыми. Но если ваш веб-сайт самописный, то такая проверка будет весьма кстати.
Как проверить? Проверить код на соответствие требованиям W3C вы можете с помощью валидаторов:
Валидатор подсветит ошибки, если таковые имеются, и даст рекомендации по их устранению.
Ошибки на сайте могут в значительной степени негативно повлиять на его индексацию и продвижение, а также снизить поведенческие метрики. Важно учитывать множество факторов, но в рамках этого подзаголовка перечислю наиболее популярные.
Дубли страниц . Достаточно частая проблема. Дублировать страницы может неверно настроенная CMS или ваша собственная оплошность.
Как проверить?
Результаты проверки: если количество проиндексированных URL"ов страниц примерно равно реальному их количеству, то не о чем беспокоиться.
Как решить проблему? Если проблема существует, то зачастую ее решить можно с помощью файла "robots.txt" (запрет на сканирование URL"ов с определенными параметрами) или указания канонического адреса страницы (атрибут "rel=canonical" тега ). Подробнее в справках поисковых роботов.
Дубли и неуникальный контент (частично или полностью). Нередко начинающие вебмастера плодят на своем сайте куски текстов "вежливо позаимствованных" со своих же страничек или других веб-сайтов в интернете дабы хоть как-то наполнить его контентом, тем самым понижая репутацию в глазах поисковиков. Данную проблему решить гораздо проще, нежели с дублями. Достаточно проанализировать все страницы сайта и переписать контент до уникальности близкой или равной 100%.
Битые ссылки. Данная проблема может появляться, если ссылки в тексте вы проставляете правкой html-кода, то есть вручную. Предположим такую ситуацию. Вы написали статью, проставили в ней ссылки, опубликовали. А потом вдруг решили по каким-либо причинам сменить названия URL"ов некоторых страниц или вовсе их удалить (кстати, что категорически НЕ рекомендую делать), а ссылки в статье поменять забыли. Вот и получились они битыми. Ссылки есть, но ведут они в никуда.
Чтобы не навредить внутренней оптимизации при смене адресов страничек сайта, нужно сделать (настроить) 301 редирект для каждой из них.
Понятное дело, чтобы привести линки в порядок, необходимо прописать правильные адреса. Хорошо, если таких ссылок немного, но если их огромное количество, то за каждой можно не уследить. Тут выручит бесплатный софт Xenu или сервис ниже.
Проверить сайт на ошибки: audit.megaindex.ru
В предыдущем подзаголовке мы рассмотрели каким образом могут появляться битые ссылки, которые нежелательны на сайте. Чтобы не вводить пользователя в заблуждение, который может перейти по сломанному линку из-за промашки вебмастера или по собственной невнимательности (неверно набрал адрес) — нужно создать специальную страничку с ошибкой 404, что значит "Страница не существует".
Назначение страницы с ошибкой 404:
Как сделать страницу с ошибкой 404? По умолчанию такая страница может выглядеть совсем непрезентабельно, но это не критично, если сервер при этом отдает роботам правильный http-заголовок ответа. Но лучше обзавестись собственной "несуществующей страницей", в которую можно включить свои "плюшки" и извлечь из этого выгоду. Пример такой страницы Dasound 404 .
Страница 404 для сайтов на HTML:
Страница 404 для сайтов на PHP:
по аналогии создаете файл-страницу 404.php
и прописываете в файл конфигурации строчку кода
ErrorDocument 404 http://vash-sajt.com/404.php .
Более детальное описание создания 404 странички поищите в интернете.
Как проверить ответ сервера? Воспользуйтесь онлайн инструментом: Cy-Pr Header или Bertal — введите в соответствующее поле любую несуществующую страницу вашего сайта, например, vash-sajt.com/qwerty12345.
Результаты проверки. Если все правильно сделано, то вы увидите HTTP/1.1 404 Not Found или HTTP/1.1 301 Moved Permanently .
Рассказывать об истории появления "WWW" и почему кто-то "за", а кто-то "против" этой аббревиатуры в адресе сайта не является приоритетной задачей данного подзаголовка. Сразу к делу.
Доступность веб-ресурса по разным адресам, таким как "www.vash-sajt.com" и "vash-sajt.com", говорит об упущении вебмастера — по сути, это две идентичные копии сайта, а это плохо для внутренней оптимизации. Хотя поисковые роботы самостоятельно определяют главное зеркало, что может не соответствовать вашим предпочтениям. Поэтому лучше самому вмешаться в этот процесс.
Что нужно сделать?
Имейте ввиду, если в индексе поисковиков сидит копия с префиксом "www", а вам нужно "без www", то сайт на время пропадет из поиска со всеми вытекающими последствиями. В этом случае лучше оставить как есть, особенно, если ресурс имеет поисковый трафик. И еще, считайте везением, когда оба робота (Яндекс, Гугл) одинаково выберут главное зеркало. В этом случае приступайте к склейке, а в качестве главного домена выступит проиндексированный вариант.
Как склеить или указать главное зеркало сайта? Способы:
В принципе достаточно применить 301 редирект, но лучше задействовать все три способа. Здесь же приведу примеры редиректов (на Apache сервере), код одного из которых необходимо добавить в файл.htaccess (не производите правку кода ниже! ).
Склейка (переадресация) с "www" на "без www" (домен БЕЗ префикса "www"):
RewriteEngine On RewriteCond %{HTTP_HOST} ^www\.(.*) RewriteRule ^(.*)$ http://%1/$1
Склейка (переадресация) с "без www" на "www" (домен С префиксом "www"):
Options +FollowSymLinks RewriteEngine On RewriteCond %{HTTP_HOST} ^([^www].*)$ RewriteRule ^(.*)$ http://www.%1/$1
ЧПУ — это человеко-понятные (дружественные) URL адреса, которые целесообразно применять для страниц без динамических параметров, например, на личных блогах под управлением популярных движков (Вордпресс, Джумла и тд). Предназначен для удобства пользователей, а также послужит улучшением внутренней оптимизации сайта.
Английский вариант ЧПУ — SEF (search engine friendly) — может пригодиться при последующей настройке, так как в некоторых движках используется именно эта аббревиатура или ее расшифровка.
Несколько примеров:
Примечание. Для русскоязычных сайтов предпочтительнее использовать транслит.
Преимущества ЧПУ (SEF):
Дабы избежать проблем с индексацией сайта, потерей трафика и прочими сопутствующими событиями, в идеале лучше с самого начала его зарождения делать человеко-понятные URL"ы. Когда на ресурсе имеется много проиндексированных страниц, переходить на новые адреса значительно сложнее — вам придется повозиться с настройкой редиректов через файл ".htaccess" или же настройкой движка с использованием карты редиректов.
Настройка ЧПУ (SEF). Обычно дополнительно настраивать адреса не нужно, если их автоматически генерирует используемая CMS. Однако, это может происходит не во всех системах управления сайтами. Произвести настройку можно через админку движка, либо с помощью установки и активации дополнительного модуля/плагина, например, для:
"Хлебные крошки" (Breadcrumb) — строка навигации, показывающая местонахождение пользователя на конкретной странице. Данный вид навигации призван улучшить юзабилити и внести улучшение в оптимизацию ресурса.
Чаще такую строчку делают горизонтальной и располагают под шапкой сайта. Пример хлебных крошек:
Главная → Раздел → Подраздел → Статья
Чтобы внедрить навигационную строчку на свой сайт воспользуйтесь модулем CMS (если предусмотрен), либо вставкой кода в шаблон сайта (поищите решение в интернете), либо воспользуйтесь плагином (смотрите ниже):
Фавиконка (favicon) — миниатюрное изображение (обычно 16x16 пикселей), отображающееся на вкладке и в закладках браузера рядом с заголовком страницы и в поисковой выдаче перед ссылкой. Файл имеет расширение *.ico
Установив или сменив стандартную иконку вашей CMS вы добавите еще один плюсик в корзину "внутренняя оптимизация сайта", конечно, если фавикон будет уникальным.
Как создать фавикон? Варианты:
Как установить фавикон?
Примечания.
1. Чтобы не прописывать код вручную на каждой странице воспользуйтесь штатными средствами используемой CMS. У каждой системы свой подход, но сложного ничего нет (поищите решение для вашего случая).
2. В поисковой выдаче иконка появится не сразу, а по прошествии 3-4 недель.
Ссылки на другие ресурсы в интернете называются внешними или исходящими, которые уносят статический вес с сайта. Дабы избежать этого явления, их лучше закрывать специальным атрибутом , который нужно поместить в тег . Пример кода ссылки:
анкор
Однако, не стоит прятать подряд каждый линк. Если вы ссылаетесь на трастовые ресурсы типа Википедия, Лента, Озон и другие, то пусть ссылка будет без атрибута.
Некоторые вебмастера дополнительно прячут ссылки от индексации в тег
Семантическая разметка — структурированная разметка данных (микроразметка) призванная улучшить понимание поисковыми роботами структуры и содержание документа/страницы. С ее помощью улучшаются сниппеты, повышается процент CTR, а следовательно и трафик.
Считаю, что микроразметка нужна не всем сайтам. А на каких веб-ресурсах целесообразно ее внедрять? Примеры:
В общем, это сложная и обширная тема, которую в двух словах толком не опишешь. Моя цель — довести до вашего сведения, что существует такое понятие как микроразметка. Поэтому предлагаю ознакомиться с ней более детально в справке Яндекса и на Хабре .
Проведя работы по улучшению внутренней оптимизации можно добиться значительного повышения качества ресурса, что положительно отразится на поведенческих метриках и позициях сайта в выдаче. А значит важно учитывать такие факторы как:
Здесь собран необходимый SEO-инструментарий, чтобы вы смогли самостоятельно сделать внутреннюю оптимизацию и провести аудит сайта.
Онлайн сервисы:
Примечание. В большинстве случаев вам будет достаточно первых двух сервисов, но для тех, кому их возможностей будет не хватать, есть смысл воспользоваться "мутагеном".
Программы:
Правильно сделать внутреннюю оптимизацию своего сайта несложно — терпение и усидчивость вам в помощь. А все необходимое — факторы, влияющие на нее, а также инструменты, позволяющие выполнить ее самостоятельно, собраны в данном разделе.
В этой статье я расскажу какие работы по внутренней оптимизации сайта должны быть сделаны еще на этапе разработки, чтобы поисковые системы сразу полюбили сайт, без дополнительных магических пассов со стороны seo-оптимизаторов.
В статье перечислены 12 пунктов важных для seo-оптимизации интернет-магазина, да и любого сайта, будь то сайт компании, блог или даже лендинг. Говорится о назначении каждого из 12 базовых пунктов, даются рекомендации, что нужно сделать в первую очередь.
В конце этой страницы, вы можете скачать чек-лист со всеми 12 пунктами.
По своему опыту могу сказать что, к сожалению, многое из приведенного ниже списка часто игнорируется разработчиками при создании интернет-магазина. Разработчик этих пунктов не делает, если они не были предусмотрены в бюджете проекта, а заказчик просто не знает о том, что их необходимо было сделать.
В лучшем случае выполнение этих и ряда других дополнительных работ по внутренней оптимизации сайта, предложат отдельно, после окончания основных работ над сайтом и сдачи проекта. Это совершенно нормальный подход, поскольку работа над внутренним seo действительно не относится напрямую к разработке интернет-магазина.
При худшем варианте - это просто не будет сделано вообще. Не сделают, потому что не умеют или не знают о важности этих пунктов для успешного продвижения сайта.
Этот пост не претендует на исчерпывающее руководство по внутренней оптимизации. Задача, прежде всего, показать основные, наиболее важные моменты, которые нужно и важно учитывать сразу, еще на этапе разработки сайта.
Если вы владелец интернет-магазина, вы должны знать об этом базовом списке задач:
Еще один файл, прописав в котором определенные правила переадресации, можно существенно улучшить внутреннюю оптимизацию сайта.
Базовый набор действий следующий:
Домен, на который ведут редиректы обязательно должен соответствовать домену, указанному в robots.txt.
Например, в robots.txt у вас указан в директиве Host домен site.ru (без www), это значит что в.htaccess все редиректы с дополнительных доменов и с www, тоже должны вести на site.ru.
Например, каталога товаров, должен открываться по адресу Site.ru/catalog/, но если вы наберете в строке браузера Site.ru/catalog/index.php, то должно сработать перенаправление на основную страницу Site.ru/catalog/ (без index.php).
Это же правило должно работать для всех разделов вашего сайта, включая главную страницу.
С точки зрения поисковой системы, это могут быть разные адреса. Поэтому их нужно -приводить к единому виду. Например, если вы в адресной строке браузера наберете ВашСайт.ру/catalog, адрес должен автоматически измениться на ВашСайт.ру/catalog/ (должен добавиться в конце символ «/»).
Это правило должно работать во всех разделах вашего сайта.
По сути, все перечисленные правила, которые здесь рекомендуется прописывать в.htaccess, направлены на борьбу с дублями контента, так же как в пунктах выше, когда мы указывали в robots.txt директиву Host. Это не избыточная перестраховка, а необходимость, которую рекомендуют большинство seo-оптимизаторов. В случае с удалением дублей контента лучше перебдеть чем недобдеть. Поэтому переходим к следующему пункту rel=canonical.
Практически на любом сайте, одна и та же страница может быть открыта по нескольким адресам. Например, в вашем интернет-магазине вы используете какие-то дополнительные параметры в URL, чтобы точнее отслеживать переходы по ссылкам каждого пользователя. Поисковая система может воспринимать одну и ту же страницу, но с разными параметрами в URL, как разные страницы, что, в свою очередь, приведет к появлению дублей контента в индексе поисковой системы.
Карта сайта, в данном случае это не страница, на сайте, содержащая полное дерево структуры и упрощающее навигацию. Карта сайта — это xml-файл, со списком всех страниц, подлежащих индексации. Она упрощает индексирование сайта поисковыми системам, поскольку явно показывает на страницы, дату их обновления и появление нового материала.
Часто про функционал, позволяющий генерировать файл sitemap.xml, разработчики забывают. Но если ваш интернет-магазин сделан, например на 1С-Битрикс, то этот функционал уже присутствует в нем «из коробки». Все что нужно — настроить его. Сделать это можно мышкой, за 5 минут.
Если ваша CMS не имеет таких возможностей, то вот несколько рекомендация по созданию правильного Sitemap.xml:
Страница с кодом ошибки 404 отображается посетителю, если он переходит на страницу, которой больше нет либо неправильно набирает адрес страницы на вашем сайте. Если сайт разрабатывается на какой-либо CMS, то 404-я страница обычно настроена и к ней применяется тот же шаблон дизайна что ко всему сайту.
Несколько основных правил для 404-й страницы:
Мета-тегов достаточно много, подробнее о них можно прочитать в справке Яндекса.
Если ваш сайт сделан на CMS, то основные мета-теги у вас на страницах скорее всего, уже есть. Как минимум указана кодировка страницы и разрешение поисковикам индексировать страницу.
Из тега для внутренней seo-оптимизации важен атрибут «description» (атрибут «robots» конечно тоже важен, но будем считать что он есть и разрешает индексирование страницы (content=all).
При разработке интернет-магазина, очень часто забывают про «description». Поэтому на сайтах, он если присутствует, то либо пустой, либо повторяется на всех страницах, либо не имеет отношения к контенту (остался из шаблона CMS).
Недооцененность мета-тега «description» связана с тем, что в ранжировании сайта в поиске он роли не играет. Но у него есть другая важная функция — он может использоваться в сниппете поисковой выдачи. Проще говоря, влияет на полноту отображения сайта в результатах поиска, что может положительно сказаться на CTR (количестве кликов) и увеличить трафик на сайт.
Это подтверждает и гугл в своей справке для Веб-мастеров:
В атрибуте description метатега можно указать краткие сведения о содержании страницы. В некоторых случаях Google использует метаописание в расширенном описании страницы в результатах поиска.
— Google Webmaster .
Google, в своем руководстве для веб-мастеров не рекомендует делать следующее :
Обратите внимание на страницы пагинации (когда товаров в разделе много, список обычно разбивают на несколько страниц).
Постраничная навигация по разделу каталога, когда товаров много.
Страницы пагинации генерируются по тому же шаблону, по которому создается главная страница раздела, поэтому, если разработчик интернет-магазина не предусмотрел этого , то у всех страниц пагинации будет один и тот же заголовок (title) и дескрипшн (description). Этого допускать нежелательно. Поэтому Title таких страниц нужно нумеровать (Страница 2. Название страницы) а decriptionна страницах пагинации лучше убирать совсем, оставляя только на главной странице раздела товаров.
Часть данных из OpenGraph-разметки поисковик учитывают. Например, Яндекс может индексировать видео на страницах, размеченных по этому стандарту. Для интернет-магазина, блога или новостного сайта, og-теги используются в основном чтобы при расшаривании корректно отдавать данные в социальные сети.
Если в og-тегах у вас будет указан необходимый минимум данных, то репосты вашей страницы в социальные сети, например, в ВК и ФБ будут содержать тот контент, который хотите вы.
С магазина WildBerries.ru — все подгрузилось идеально.
Пример, когда информация при расшаривании новости подгрузилась корректно.
Потому что указаны необходимые og-теги.
На сайтах, не использующих OpenGraph, репосты материала иногда выглядят странно или даже комично. Когда к заголовку новости, в качестве картинки-иллюстрации к этой новости взят рекламный баннер, а описание - это текст с копирайтом из футера сайта. Вот чтобы таких коллизий не было, применяется разметка OpenGraph.
Для интернет-магазина нужно заполнять следующие og-теги:
Заполнять поля вручную для og-тегов не требуется, поскольку все данные для них обычно уже есть и их можно подставлять автоматически.
В какой-то мере, все описанное в этой статье — относится к автоматизации внутренней оптимизации сайта, поскольку настройка ряда правил требуется только один раз, после чего они применяются ко всем материалам сайта, уже имеющимся, и тем, которые только будут добавлены.
Но в этом пункте речь пойдет о настройках, автоматизирующих генерацию ряда важных для внутреннего SEO параметров:
Про description как таковой мы говорили в пункте выше. Здесь мы говорим о способах его заполнения. Его можно либо генерировать из описания товара, очистив от html-разметки и сократив до 200 символов, либо предусмотреть в администраторской части сайта специальное поле, в которое контент-менеджер будет вручную вносить описание. Мне первый вариант нравится больше, поскольку требует меньше работы со стороны контент-менеджера.
Чтобы содержимое поля description не было полностью идентично описанию товара на странице, в начало описания нужно автоматически добавлять, например, бренд и цвет товара, а если на него действует скидка, то писать и об этом тоже.
То же самое что описание товара, но только для страницы со списком товаров одного раздела.
Название изображения должно соответствовало названию товара. То есть называться не набором из букв и цифр, а более конкретно. Самый простой способ для этого - генерировать имя файла для изображения из названия товара. Транслитерировать его, заменять пробелы знаками тире «-» и присваивать такое название изображению. Таким образом, для товара «Куртка Alliance Jacket-Flip» название изображения товара будет kurtka-alliance-jacket-flip.jpg .
Изображение должно иметь alt с названием товара или близкое по тематике (alt - это параметр тега img, содержащий описание изображения, которое помогает поисковой системе понять что изображено на картинке или фото). Если заполнять автоматически, то берется просто название товара.
Хочется отметить, что автоматическое SEO, о котором говорилось в этом пункте, прекрасно реализовано в 1С-Битрикс. Впрочем, как и другие возможности, описанные в этой статье.
Почти все, из перечисленного в этом пункте можно быстро настроить в Битриксе.
В этой статье я даю только общие рекомендации, поскольку чтобы говорить предметно по настройке автоматического seo для конкретного сайта, нужно смотреть сайт, определять семантическое ядро, только после этого станет понятно, как лучше настроить шаблоны, по которым будут генерироваться названия страниц с товарами, описания, картинки и т.п.
Микроразметка — это стандарт разметки данных, принятый поисковыми системами. Если интернет-магазин использует микроразметку, то сниппеты его страниц в поисковой выдаче выглядят лучше, это, в свою очередь, улучшает CTR и увеличивает трафик на сайт.
Этот и следующий пункты мало относится к разработке, поэтому если разработчики вашего интернет-магазина не сделали их — не ругайте их слишком сильно:-). Поручите это сделать специалисту по поисковой оптимизации.
Поисковые системы предлагают инструменты, дающие веб-мастеру информацию о том, как индексируется сайт, об ошибках, которые мешают сайту правильно отображаться в результатах поиска. Они позволяют сообщать поисковым системам о новых и удаленных страницах, настроить зеркала сайта и многое другое.
Любой интернет-магазин, владельцу которого небезразлично как его сайт ищется должен зарегистрировать свой сайт в этих сервисах.
Необходимый минимальный набор действий, которые нужно сделать после регистрации в каждом из них:
Необходимо указать ссылку на расположение карты сайта, о которой говорилось выше. Сервис проверит карту на ошибки, если есть сообщит о них. Если все в порядке, карта сайта будет учитываться при следующих обходах поискового робота.
Инструменты Яндекса и Гугла позволяют проверить файл robots.txt на корректность. Также можно проверить, не закрыты ли от индексирования в robots.txt те или иные страницы.
Чтобы убедиться что разметка сделана верно, что Гугл и Яндекс понимают ее правильно, нужно проверить ее используя соответствующие инструменты Я.вебмастер и Гугл.вебмастер.
Об этом выше говорилось, применительно к robots.txt, но нелишним будет указать домен в настройках этих инструментов. Обязательно проверьте чтобы домен, который вы будете указывать, соответствовал домену указанному в robots.txt (в директиве Host).
Например, у вас есть два домена. Site.ru и site.com. Если в robots.txt у вас указан домен site.ru (без www, в зоне.ru) то и в этих сервисах вы должны указать этот же домен, так же без www.
Яндекс дает возможность заранее сообщить поисковой системе о скором появлении на вашем сайте оригинального текста. Эта помогает Яндексу закрепить авторство на текст за вашим сайтом, и в дальнейшем учитывать это поисковой выдаче, даже если материалы с сайта будут перепечатаны другими интернет-ресурсами.
Вы можете добавлять тексты вручную либо автоматизировать этот процесс через API.
С некоторых пор, в Гугл свернут проект подтверждения авторства, но привязать сайт к бизнес-странице в Гугл+ можно и это дает определенные преимущества.
О преимуществах и как это сделать, читайте в справке гугл для вебмастеров.
Что у Яндекс.Вебмастер, что у GoogleWebmaster возможностей, для улучшения и проверки вашего сайта очень много. Перечисленные выше далеко не единственные и не самые интересные.
Скачать его вы сможете в конце этой статьи.
Поскольку статья написана для нетехнических специалистов, чтобы не искушать неподготовленного читателя мыслями «сделать самостоятельно», я намеренно не стал давать конкретных советов по технической реализации. Выполнение некоторых пунктов имеет свои нюансы и чтобы сделать всё правильно их нужно понимать. Это тот случай, когда лучше пусть будет как было, чем вы сломаете:-).
Мой совет — вместо того чтобы пытаться делать seo-оптимизацию своими руками, дайте ссылку на эту статью программисту, который обслуживает ваш сайт (или студии) и спросите, все ли из указанного в списке реализовано у вас, если нет, попросите рассчитать цену за доработки.
В этой статье я расскажу как сделать внутреннюю SEO оптимизацию сайта . Надеюсь эта статья будет полезной не только для новичков, но и для опытных оптимизаторов.
Как я уже говорил, уникальный и интересный контент ОЧЕНЬ важен, но чтобы сделать свой блог успешным, одних качественных статей будет мало. Люди не будут идти от-того, что вы пишите красивые статьи потому, что это лишь одна из причин, почему они здесь, чем удобнее для людей сделаешь, тем благодарнее они тебе будут.
— это действия, которые помогают индексировать сайт поисковым машинам. То есть — перелинковка между статьями, между разделами, установка специальных, помогающих плагинов, установка карты сайта и т.д. Обо всем это я сейчас расскажу.
Не возможна без специальных плагинов. Устанавливайте специальные плагины, которые будут выводить под статьей ссылки на другие категории или статьи. Таким образом, посетитель сайта, который будет читать вашу статью, сможет посмотреть похожие статьи или статьи из данной категории. От каких плагинов целых два плюса, посетитель наверняка прочитает названия похожих статей и если ему понравиться тема, прочитает еще одну статью. Второй плюс — ссылка на статью с нужным анкором.
Это действительно важный пункт в seo оптимизации сайта
, почитайте больше информации на эту тему.
Наверняка из того количества статей, которое вы написали, есть повторяющиеся темы. Например " «
и „Как заработать с Twitter“. Вы должны перелинковать эти статьи. Если кто не знает, что такое перелинковать — это значит, поставить ссылки. То есть, статьи должны обменяться ссылками, но с нужными анкорами. Допустим, в первой статье на словах „заработать с Twitter“ вы должны поставить ссылку на вторую статью, та же история со второй статьей, только используйте нужный анкор.
Внутренняя SEO оптимизация сайта отличный способ и стимул для перелинковки статей. Читая одну статью посетитель может кликнуть еще по нескольким ссылкам в этой статье, а это значит больше просмотров и еще больше интересной информации для посетителя.
Вся эта внутренняя SEO оптимизация сайта делается для улучшения индексации сайта поисковыми пауками, так он всегда найдет все ваши страницы и люди смогут найти нужную им информацию быстрее. Только не стоит этим злоупотреблять, 3-5 ссылок со статьи будет достаточно. При перелинковке лучше используйте текстовые ссылки, не использовав скрипты, это улучшит индексацию. Не забывайте использовать юзабилити сайта (это когда любая страница вашего сайта доступна пользователю в 3 клика).
Внутренняя SEO оптимизация сайта обязательно нужна и в картинках. Контент конечно рулит, но и про картинки не стоит забывать. Картинки — это источник дополнительного трафика для вашего ресурса, многие забывают о том, что поисковые системы имеют поиск по картинкам. Когда добавляете картинку, называйте ее по теме статьи, используйте ключевые слова. На пример: „что такое внутренняя оптимизация сайта“.
Статья на тему оптимизация изображений!
Как я уже не раз упоминал, именно контент и интересная информация делает сайт. Он должен быть уникальным, без ошибок и красиво сделан. Читайте статьи о том как написать красивый текст.
Разбавляйте статьи картинками и не забывайте писать. Если блог молодой, пишите каждый день, что бы привлечь посетителей, а если уже успешный, тем более! Стоит только забыть о блоге на недельку и ваши посетители будут думать, что блог умер и пора искать новый источник, вам же этого не надо?
Внутренняя оптимизация включает в себя и дизайн. Ваш сайт отлично выглядит? Но возможно это только в ваше браузере. Допустим если вы пользуетесь браузером Mozila Firefox (как я), вы можете видеть дизайн вашего сайта отличным, но люди, которые пользуются Internet Exploter, Google Chrome или Opera, могут видеть дизайн вашего сайта плохо. Мне бы не захотелось проводить время на „кривом сайте“, а ведь очень много людей пользуются другими браузерами. Вам стоит проверить как выглядит ваш сайт через другие браузеры и при необходимости оптимизировать дизайн сайта!
Если вы используйте ссылки на другие сайты, заключайте их в теги
9. Внутренняя SEO оптимизация ключевыми словами
С начала вам надо будет определиться с поисковыми запросами.
Ключевые слова должны быть прописаны в заголовке, а так же находиться в самой статье, но плотность ключевых слов не должны превышать 3-5%. Не забывайте, что поисковики могут отличить текст от набора слов. Лучше будет, если вы оптимизируете каждую страницу под 1-2 запроса. Обязательно используйте ключевые слова в названии статей.
11. Оптимизируй страницу под 1-2 SEO запроса
Каждая страница сайта оптимизируется под 1-2 запроса, не надо заводить бесполезные страницы, которые просто “лежат” на сайте.
12. Правильное использование ключевых слов
Ключевые слова должны находиться в названии статей, в картинках и заголовках. Внутренняя SEO оптимизация включает в себя использование тегов
,
, , , так же используйте в анкорах различные словосочетания с ключевыми словами. При этом текст должен быть естественным, а не кучей ключевых слов, поисковые машины могут отличить, где какой текст.
Внутренняя оптимизация сайта – это комплекс работ над сайтом, направленных на обеспечение соответствия кода и содержимого страниц ресурса требованиям поисковых систем.
Грамотная внутренняя оптимизация нацелена на устранение технических ошибок и улучшение ресурса - ваш сайт становится максимально релевантным (=полезным, привлекательным) для поисковиков и пользователей, и как следствие, попадает в ТОП.
Комплекс работ по внутренней оптимизацииС чего начать?
Начать работы по внутренней оптимизации стоит с подбора списка ключевых слов, по которым будет осуществляться продвижение сайта. Важно правильно сформировать семантическое ядро (СЯ) для того, чтобы вы получали из поиска не просто пользователей, а ваших потенциальных клиентов.
Оцените текущую информацию на сайте, составьте список масок ключевых слов, расширьте их, подобрав нч-, сч-, вч-запросы. Для поиска дополнительных масок, оценки популярности спроса, сезонности того или иного запроса, можно использовать стандартные бесплатные сервисы Яндекс.Вордстат или Планировщик ключевых слов от Google.
Сгруппируйте подобранные ключевые запросы. На одной странице вы можете продвигать несколько ключевых слов. Используйте логическую группировку, а в том случае, когда у вас возникают сомнения о совместимости того или иного запроса друг с другом, прибегайте к анализу сайтов текущего ТОП-10 (ваших конкурентов).
Для каждого ключевого слова или группы слов необходимо определить посадочную (целевую) страницу. Проанализируйте какие страницы сайта сейчас ищутся по группе запросов в поисковых системах, либо воспользуйтесь оператором запрос site:vashsite.by .
Для определения точек входа для высококонкурентных запросов необходимо проанализировать конкурентов и посмотреть, какие страницы находятся в ТОПе*.
* например, если в первых 20 результатах выдачи по вашему запросу находятся лишь главные страницы сайтов, то вам также стоит выбрать для продвижения главную страницу. Конечно, если запросов много (например, при продвижении портала), то под высокочастотные запросы можно оптимизировать и внутренние страницы.
При проведении внутренней оптимизации используйте сайты конкурентов для подбора и группировки запросов, анализа и разработки структуры сайта, анализа необходимых элементов (поиск по сайту, как сделан каталог, прайс, характеристики товаров, конструктор, форма подбора, калькулятор кредита и пр.).
Аудит сайта помогает определить техническую готовность сайта к продвижению и выявить основные ошибки, которые могут мешать индексации и ранжированию вашего ресурса поисковиками.
Основные моменты, на которые важно обратить внимание, проводя :
Если проводится внутренняя оптимизация нового сайта, то, скорее всего, придется создать robots.txt с нуля и разместить его в корневой директории. Сделать это легко – достаточно открыть блокнот и внести в него необходимые директивы. После чего файл необходимо сохранить и закачать в корневую директорию сайта.
Что именно должно быть в файле?
Robots.txt должен иметь как минимум две директивы:
User-agent: - указывает, для какого поискового робота предназначены инструкции. Для того чтобы указать инструкцию для всех поисковых систем сразу, необходимо использовать в User-agent «звездочку» - *
Disallow: - указывает, какую директорию сайта не нужно индексировать. Например, закрыть файл или папку от индексации можно, указав следующие директивы:
Disallow: /file.html
Disallow: /papka/
Если вы не хотите закрывать от индексации страницы сайта, то достаточно указать следующее:
User-agent: *
Disallow:
Для робота Яндекса создается своя секция и указывается основное зеркало сайта с помощью директивы host:
User-agent: Yandex
Disallow:
Host: www.site.ru
Текст на странице является одним из самых важных факторов ранжирования. При написании SEO-текстов следует придерживаться следующих правил:
Мета-тег title
Как выглядит в коде
Как выглядит в результатах поисковой выдачи
Мета-тег title играет важную роль для поискового робота - он учитывает его при определении содержания страниц.
Что касается длины заголовка, то Яндекс показывает в выдаче до 60 символов, учитывает 186 слов, а Google значительно меньше - 12 слов (порядка 70 символов).
Мета-тег Description содержит краткое описание страницы (до 200 символов).
Содержимое тега description может использоваться поисковиками для формирования сниппета*, особенно это актуально в отношении Google.
* сниппет, что в дословном переводе значит «фрагмент» - это часть текста с сайта или с description, которую пользователи видят в результатах выдачи поисковой системы.
Сниппет очень важен, т.к. только высокие позиции не гарантируют хороший трафик - во многом он зависит от привлекательного сниппета. Кроме того, с усилением влияния поведенческих факторов при ранжировании, содержательный и интересный сниппет является обязательным условием грамотной внутренней оптимизации сайта.
Перелиновка страниц позволяет перераспределить вес на продвигаемые страницы. Кроме того, при продвижении по низкочастотным запросам, а иногда и среднечастотным, внутренняя перелинковка помогает вывести сайт в ТОП без покупки ссылок.
Внутренняя оптимизация сайта подразумевает постоянное развитие ресурса, добавление новых страниц. Например, создайте страницы «Статьи», «Словарь терминов» и проставьте ссылки на продвигаемые страницы. Это добавит им вес и поможет вывести запросы в ТОП.
Для текста ссылок следует использовать ключевые слова не только в прямом вхождении, но и их словоформы и переформулировки.
Также хороший прием перелинковки – разместить под статьей ссылки на другие интересные материалы сайта. Это поспособствует тому, чтобы клиент провел больше времени на вашем сайте.
Внутренняя оптимизация сайта, сделанная по всем правилам, станет важным шагом к успешному продвижению вашего ресурса в интернете. Но занимаясь продвижением сайта самостоятельно, вы рискуете не только не попасть в желаемый ТОП, но и ухудшить свои позиции. Чтобы грамотно и не попасть под фильтры поисковых систем, следует обладать серьезной теоретической базой и большим опытом. 100% сотрудников SEO-отдела ARTOX media имеют сертификаты Google IQ, а также большой опыт работы в продвижении проектов разной тематики и сложности в разных регионах.
В ARTOX media, вы получаете:
Профессионально проведенная качественная оптимизация сайта – самый важный этап в раскрутке ресурса. Именно качество сейчас является определяющим фактором – практически все усилия специалистов направлены на его повышение. Работы по продвижению включают большой комплекс услуг, которые выполняет один специалист или команда – все зависит от объемов и тематики.
Качественная оптимизация сайта должна начинаться с анализа имеющегося ресурса. Это даст специалисту нужный объем данных для дальнейшей работы. Что обычно анализируют в самом начале:
Качественная раскрутка сайтов должна опираться на внутреннюю оптимизацию: от нее зависит успех всех дальнейших действий. Наряду с чисткой кода, устранением технических недостатков, улучшением юзабилити нужно провести большую работу по внутренней перелинковке с правильным распределением веса между ключевыми страницами, заполнению мета-тегов, структурированию страниц с помощью заголовков.
Также качественная оптимизация сайта зависит от контента. Он должен быть актуальным, уникальным, а также полностью соответствовать поисковому запросу, по которому продвигают страницу. Лучше отдавать предпочтение авторским материалам – это касается и текстов, и изображений. Для фотографий важно заполнять теги title и alt. Контент должен быть предназначен в первую очередь для пользователя, а не только для успешной индексации и раскрутки – это позволит на самом деле привлечь заинтересованных посетителей.
Современная качественная оптимизация сайта все еще опирается на наращивание ссылочной массы. Но сами подходы к этому процессу изменились. Теперь уже нет смысла делать массовые закупки. Наоборот, на первый план выходит ручной отбор доноров, подходящих по теме и обладающих высоким авторитетом. Кроме того, используют другие методики:
Качественная оптимизация сайта требует исключительно профессиональных действий. Кроме того, ее допускается проводить с использованием белых методов. Любые накрутки и прочие запрещенные способы могут дать временный результат, но после обернутся санкциями. Поэтому лучше доверять стратегиям, которые используют специалисты.