Первоклассные услуги по продвижению и раскрутке сайтов

Почему сайт может иметь плохую индексацию?

Опубликовано: 2014/10/29Рубрика:
Полезные материалы
Комментариев: 0
Просмотров: 1345

prichiny ploxoj indeksacii sajta

Если у вашего сайта плохая индексация, то это очень сильно может навредить его дальнейшему развитию. Перед началом продвижения очень важно проанализировать все причины, которые привели к такому результату, и устранить их. Далее мы рассмотрим основные моменты, которые приводят к таким последствиям:

1. Робот еще не знает о странице:

Один из вариантов решения — это подождать некоторое время, пока сайт не проиндексируется. Если вы добавили статью на молодой сайт, для индексации Яндексом потребуется 2 недели. Для Google эта цифра будет пару дней. Для ускорения нахождения вашего материала добавьте его в специальное поле add URL в панеле вебмастера.

 

Также стоит пересмотреть перелинковку и структуру сайта, если на новую статью не ведет абсолютно никакая ссылка с сайта, тогда маловероятно, что робот ее найдет.

 

2. Сайт частично или полностью закрыт от поискового робота

  • Проблема с robots.txt

Бывали случаи, когда при запуске сайта в файле robots.txt стоял запрет на индексацию некоторых важных разделов сайта. Поэтому пересмотрите внимательно его структуру на наличие директивы Disallow и посмотрите, что именно она закрывает от индексации.

  • Закрыт через meta-robots

Еще одним верным способом закрыть документ от индексации является использование специального метатега в разделе <head></head>, содержащего следующие значения: <meta name=»robots» content=»nofollow,noindex» />. Бывали случаи неправильной настройки CMS, где на каждой странице высвечивался данный метатег и сайт из-за этого не мог попасть в индекс. Очень быстро можно проверить страницы своего сайта с помощью программы NetPeack Cheker.

  • Закрыт через IP или User-Agent

Попробуйте поставить себе User-Agent от Google и Yandex и проверить ваш сайт. На некоторых хостингах были случаи, когда из-за большого количества запросов от ПС они падали и им приходилось фильтровать запросы с соответствующими параметрами IP и User-Agent.

  • Закрыт через http-заголовки X-ROBOTS-TAG

Третий способом закрыть документ от индексации — использование специальных http заголовков. Для проверки своего сайта используйте плагин Firebug для Firefox.

  • Применяет flash или ajax-навигацию

Поисковые системы могут плохо индексировать flash и ajax, поэтому если у вас возникли сомнения, зайдите в панель для вебмастеров от Google и посмотрите на ваш сайт как Google bot. Если все элементы правильно отображаются и ссылки доступны, то беспокоиться не стоит, в противном случае вам нужно будет переделывать навигацию.

  • Важные элементы на сайте закрыты в noindex

Существуют CMS, в которых некоторые блоки закрыты от индексации тегом noindex, и если в этих блоках вы разместили основную часть своего контента, то тогда поисковик не сможет включить их в выдачу.

3. Сайт присутствует в черном списке

Если сайт нарушает рекомендации поисковых систем для вебмастеров, тогда его ждет список определенных санкций, которые затрудняют его индексацию. Это может быть по следующим причинам:

  •  В продвижении используются методы черного SEO
  •  Создан исключительно для поисковых систем с целью заработка и не несет пользы читателям
  • Является афиллиатом другого сайта
  • Имеет плохую историю домена
  • Сайт распространяет вирусы

4. Присутствует техническая ошибка

Очень часто технические ошибки бывают серьезной проблемой в индексации сайта.

  • Неправильный http-заголовок

Код ответа сервера для индексируемых страниц должен быть “200”. Если сервер выдает другой ответ, то это сделает невозможным попадание страницы в индекс.

  • Неправильный DOCTYPE

Бывали случаи, когда перед DOCTYPE в html-коде присутствовали дополнительные теги (<?xml или <script>), которые мешали страницам попадать в индекс.

  • Неправильные редиректы

Очень часто по незнанию веб-мастера ставят 302е редиректы вместо 301х. При этом, старая страница не заменяется в индексе новой. Также часто наблюдается неправильное использование тега rel=“canonical”, где он ставится на всех страницах сайта и ведет на главную.

  • Проблемы с кодировкой

Как правило, поисковые роботы хорошо справляются с кодировкой, но при плохой внутренней настройке сайта возможны сбои. Если у вас возникли сомнения, зайдите в панель для веб-мастеров Google и посмотрите, как выглядят ваши страницы.

5. Отдельные страницы или разделы показывают низкое качество

Для поисковых систем также очень важен момент качественного контента, так как именно за ним пользователи приходят на сайт.

  • Контент скопирован из других источников

Поисковые системы интересуются уникальным контентом, которым интересуются пользователи.

  • Контент уже существует в других разделах этого сайта

Бывают случаи, когда контент дублируется на самом сайте, и, как правило, Yandex не включает в индекс страницы-дубли.

  • Объем уникального текста на странице меньше 500 символов

Чтобы качественно осветить какую-то тему, нужно использовать объем слов, превышающий несколько предложений, поэтому, как правило, страницы на которых меньше 500 символов плохо входят в индекс.

  • Страницы раздела более 4-го уровня вложенности

Роботу очень сложно попасть на страницы такого уровня вложенности, поэтому лучше переделать структуру или же создать html карту сайта и разместить ее на главной странице.

  • Большое количество 404 страниц

Если сайт выдает очень много 404х ошибок при внутренних переходах, это свидетельствует о низком качестве сайта и частота захода робота на сайт будет значительно ниже.

  • Плохая скорость отдачи документов

Если ваш сайт из-за перегрузки медленно выдает документы, то поисковые роботы значительно уменьшат количество запросов на ваш сайт дабы не перегружать хостинг.

Рейтинг статьи:
1 Звезда2 Звезды3 Звезды4 Звезды5 Звезд (Нет рейтинга)