Основные причины плохой индексации сайта

Довольно часто вебмастера сталкиваются с такой проблемой, как плохая индексация всего сайта или его отдельных страниц. Вроде бы человек старался, создавал качественный сайт, добавлял на него интересный контент, однако страницы никак не хотят появляться в поисковой выдаче (как следствие, на них не приходят посетители с поисковиков). Что же делать? Прежде всего, нужно выяснить причины плохой индексации и попытаться их устранить. Причин для возникновения ошибок в индексации сайта поисковыми системами может быть довольно много, это могут быть как. В этой записи мы перечислим самые распространенные из них.

  1. После регистрации сайта в поисковиках прошло мало времени. Следует понимать, что с момента непосредственной регистрации до момента появления страниц в индексе должно пройти какое-то время (от нескольких часов и дней в Google до нескольких дней или недель в Яндексе). Только после того, как робот поисковой системы посетит сайт, страницы могут появиться в выдаче. Если же робот посетил ваш сайт, а страницы в выдаче все равно не появились, то не стоит пугаться — скорее всего, они появятся там сразу после очередного апдейта.
  2. На сайт или его отдельные страницы отсутствуют ссылки с других страниц / сайтов. Робот индексирует новые страницы по довольно простой схеме — переходит с уже проиндексированных страниц по размещенным на ней ссылкам. Если же на какую-то страницу вашего ресурса не ведут внешние или внутренние ссылки, то роботу будет просто не попасть на нее. Поэтому стоит позаботиться о том, чтобы все страницы сайта были хорошо связаны друг с другом и образовывали единую упорядоченную систему.
  3. Индексация закрыта через мета-теги или файл robots.txt. Довольно часто причиной отсутствия страниц в базе данных поисковиков является их непреднамеренное закрытие от индексации. Сделать это можно несколькими способами. Во-первых, через тег meta-robots. Достаточно прописать в этом теге параметры noindex и nofollow и страница станет недоступной для поисковиков. Во-вторых, при помощи файла robots.txt. В данном файле прописываются страницы и разделы, разрешенные к индексации теми или иными поисковыми системами. Если вы не укажите какие-то разделы (или исключите их), то в поиске они участвовать не будут. В-третьих, при помощи блокировки по IP-адресу. Такое иногда происходит, если хостинг блокирует нежелательные с его точки зрения IP. Либо IP-адрес поискового бота случайно попал в черный список.
  4. На сайте активно используется flash, ajax или JavaScript. Поисковики потихоньку учатся индексировать flash-файлы, java-скрипты, однако до полноценной и качественной индексации этих форматов еще очень и очень далеко. Поэтому если страницы вашего сайта на большую часть состоят из скриптов и анимации, то не стоит удивляться тому, что ресурс плохо индексируется поисковиками. Ситуация усугубляется еще больше, когда в том же флеше или в скриптах находятся навигационные ссылки.
  5. Различные технические ошибки. Речь может идти о некорректно составленном теге doctype (к примеру, перед ним поставили дополнительные теги или вставили скрипты). Кроме того, индексация может быть затруднена в том случае, когда неправильно поставлены редиректы с одной страницы на другую. К примеру, при смене домена или при создании ЧПУ следует ставить редирект 301. Если вместо него был поставлен редирект 302, то страницы вылетят из индекса (так как он создает лишь временное перенаправление с одних адресов на другие). Еще одна техническая ошибка — присвоение странице неправильной кодировки. К примеру, HTTP-заголовок может обладать одной кодировкой, теги страницы — другой, а сам контент — третьей. В данном случае поисковику придется выбирать, какую кодировку из этих трех брать за основу. Если будет сделан неправильный выбор, то вместо текста в индекс попадут нечитабельные символы.
  6. Большое число уровней вложенности страниц. Другими словами, чтобы добраться до какой-то конкретной страницы, нужно сделать большое количество кликов (она расположена слишком далеко от главной). Если уровней слишком много, то робот поисковой системы может просто не добраться до самого последнего. В результате страницы, расположенные на этих уровнях, окажутся непроиндексированными.
  7. Контент не является уникальным. Тут возможно несколько вариантов. Во-первых, вместо авторского текста используется копипаст. По понятным причинам, ворованные статьи поисковику в индексе не нужны. Во-вторых, контент дублируется на одной или нескольких страницах. Такое иногда происходит при работе с бесплатными CMS, при создании ЧПУ, а также редиректов. В-третьих, на странице содержится слишком мало контента. Минимально допустимый объем — это примерно 500-600 знаков текста. Если контента на странице будет меньше, то проблем с индексацией вряд ли удастся избежать.
  8. Сайт нарушает правила поисковых систем. Сюда можно отнести активную торговлю ссылками, использование запрещённых методов поискового продвижения, размещение на страницах вирусов, опасных скриптов, публикацию пиратского контента и другие нарушения. Если сайт не слишком провинился, то поисковые системы могут пессимизировать только какие-то отдельные страницы. При наличии большого количества нарушений сайт, скорее всего, будет полностью исключен из индекса.

Так мы рассмотрели 8 основных причин почему сайт плохо индексируется, но как понять в чем же действительно дело? Как, к примеру, проверить уникальность контента? Отсутствие или наличие дублей? Вы можете заказать у нас бесплатный аудит сайта.

Дата29.07.2014

Оставить комментарий

Top