Евгений Круглов
Специалист по поисковому продвижению веб студии SeoLand
Получить консультацию
50
29 Июля 2019

5 самых распространенных ошибок в SEO в 2019 году. Часть 2

Поделитесь в социальных сетях:

1. Неправильное заполнение sitemap.xml

Карта сайта (файл sitemap.xml ею, собственно, и является) помогает поисковику обнаружить и проиндексировать все страницы вашего сайта. От качества заполнения этого файла зависит скорость индексирования. Фактически sitemap.xml является своего рода оглавлением вашего web-ресурса. Поэтому при появлении новых страниц на сайте необходимо их сразу же внести в карту либо настроить автоматическую генерацию и обновление sitemap.

Почему это важно. При неправильном заполнении файла sitemap.xml (либо оставлении его пустым) некоторые страницы могут быть вовсе не проиндексированными и, соответственно, не попадут в поисковую выдачу.

 

2. Неправильная обработка «error 404»

При переходе по «битой» ссылке или при вводе некорректного адреса в соответствующей строке браузера пользователь должен увидеть стандартный ответ сервера – «Ошибка 404: страница не найдена». В реальности же зачастую такие несуществующие страницы отдают поисковику ответ стандартной работающей страницы. Еще как вариант – вместо ошибки показывается контент с другой страницы, например, находящейся на предыдущем уровне. Не нужно дезориентировать читателя – на странице с ошибкой должен быть показан код 404, а также присутствовать ссылка на главную страницу сайта и указаны контакты для связи. И в принципе нужно избавляться от таких страниц.

Почему это важно. Значительное число страниц с ошибкой 404 ведет к снижению пользовательской лояльности, а поисковики считают такие сайты некачественными.

 

3. Некачественные тексты

К текстовому контенту на целевых страницах предъявляется много требований Два основных – это уникальность и так называемая «тошнотность». И если с необходимостью уникальности текстов большинство SEO-специалистов уже свыклось, то с тошнотой дела обстоят хуже. К сожалению, многие до сих пор считают, что чем больше ключевых слов и фраз на странице, тем выше позиции в выдаче. Это правило работало N лет назад. Современные поисковые алгоритмы стали гораздо эффективнее и сложнее, а тошнотность текстов становится минусом в продвижении.

Почему это важно. Излишняя тошнота текста может привести к бану от поисковиков либо понижению позиций сайта в поисковом ранжировании. Поэтому придерживайтесь простого правила – писать нужно не для роботов, а для читателей.

 

4. Некорректность файла robots.txt

Когда на ваш сайт «пришел» поисковой робот, он первым делом обращается к файлу robots.txt. Именно отсюда он черпает информацию о том, какие целевые страницы и разделы нужно индексировать, а какие – нет. Файл robots.txt – стандартная вещь для всех веб-ресурсов. В нем устанавливаются правила работы поисковых систем с данным сайтом.

Почему это важно. Отсутствие или неправильное заполнение файла robots.txt приводит к тому, что поисковики сами решают, какие разделы индексировать. В итоге они проиндексируют корзину, зеркала сайта, системные каталоги и много чего еще ненужного.

 

5. Дубли целевых страниц

На сайте часто встречаются страницы, дублирующие контент других страниц. Зачастую это обусловлено технической необходимостью, но речь сейчас не об этом. Необходимо правильно настроить файл robots.txt либо соответствующий атрибут rel=canonical. Поисковой робот должен индексировать только те страницы, которые вы ему укажете и пропускать запрещенные к индексации разделы.

Почему это важно. Здесь можно провести аналогию с зеркалами сайта. Дубли целевых страниц могут привести к понижению позиций ранжирования.

Статьи по теме:

5 самых распространенных ошибок в SEO в...

1. Проблемы с метатегами title и description Начнем со «святая святых» любого СЕО-шника – title и description. С этих...
26 Июля 2019
Почитать еще:

Кому не следует инвестировать деньги в...

SEO-продвижение Сразу обозначим, что SEO не дает мгновенного результата. Это инструмент отложенного действия, а сроки зависят от продвигаемой...
01 Августа 2019