Меню
О компании Вакансии Все услуги Новости Частые вопросы Цены Статьи Бизнес сайт Портал Интернет магазин Сайт на 1С-Битрикс Сайт визитка Сайт на Joomla Лендинг Сайт на Tilda Квиз сайт Сайт под ключ Контекстная реклама Продвижение с оплатой за результат Аудит конкурнетов Продвижение по трафику Аудит сайта Продвижение по позициям Аудит контекстной рекламы Продвижение в социальных сетях Оптимизация сайта Продвижение по лидам Продвижение на YouTube Продвижение молодого сайта Интернет маркетинг Продвижение сайта в Google Ремаркетинг и ретаргетинг Продвижение сайта в Яндекс Реклама в Google AdWords Реклама в Яндекс Директ SSL сертификат Веб-дизайн Написание текстов Доработка сайта Внедрение и настройка CRM Создание сайтов Создание мобильной версии сайта Сайт на OcStore (OpenCart) Обслуживание сайта Разработка Продвижение Продвижение сайта Техническая поддержка Стоимость Кейсы Контакты Хостинг
Создание сайтов
Разработка сайтов
Типы сайтов
Платформы
Сопровождение
Поддержка сайта
Развитие сайта
Продвижение и реклама
SEO продвижение
Контекстная реклама
Дополнительные услуги
SEOLAND

5 самых распространенных ошибок в SEO в 2019 году. Часть 2

1. Неправильное заполнение sitemap.xml

Карта сайта (файл sitemap.xml ею, собственно, и является) помогает поисковику обнаружить и проиндексировать все страницы вашего сайта. От качества заполнения этого файла зависит скорость индексирования. Фактически sitemap.xml является своего рода оглавлением вашего web-ресурса. Поэтому при появлении новых страниц на сайте необходимо их сразу же внести в карту либо настроить автоматическую генерацию и обновление sitemap.

Почему это важно. При неправильном заполнении файла sitemap.xml (либо оставлении его пустым) некоторые страницы могут быть вовсе не проиндексированными и, соответственно, не попадут в поисковую выдачу.

 

2. Неправильная обработка «error 404»

При переходе по «битой» ссылке или при вводе некорректного адреса в соответствующей строке браузера пользователь должен увидеть стандартный ответ сервера – «Ошибка 404: страница не найдена». В реальности же зачастую такие несуществующие страницы отдают поисковику ответ стандартной работающей страницы. Еще как вариант – вместо ошибки показывается контент с другой страницы, например, находящейся на предыдущем уровне. Не нужно дезориентировать читателя – на странице с ошибкой должен быть показан код 404, а также присутствовать ссылка на главную страницу сайта и указаны контакты для связи. И в принципе нужно избавляться от таких страниц.

Почему это важно. Значительное число страниц с ошибкой 404 ведет к снижению пользовательской лояльности, а поисковики считают такие сайты некачественными.

 

3. Некачественные тексты

К текстовому контенту на целевых страницах предъявляется много требований Два основных – это уникальность и так называемая «тошнотность». И если с необходимостью уникальности текстов большинство SEO-специалистов уже свыклось, то с тошнотой дела обстоят хуже. К сожалению, многие до сих пор считают, что чем больше ключевых слов и фраз на странице, тем выше позиции в выдаче. Это правило работало N лет назад. Современные поисковые алгоритмы стали гораздо эффективнее и сложнее, а тошнотность текстов становится минусом в продвижении.

Почему это важно. Излишняя тошнота текста может привести к бану от поисковиков либо понижению позиций сайта в поисковом ранжировании. Поэтому придерживайтесь простого правила – писать нужно не для роботов, а для читателей.

 

4. Некорректность файла robots.txt

Когда на ваш сайт «пришел» поисковой робот, он первым делом обращается к файлу robots.txt. Именно отсюда он черпает информацию о том, какие целевые страницы и разделы нужно индексировать, а какие – нет. Файл robots.txt – стандартная вещь для всех веб-ресурсов. В нем устанавливаются правила работы поисковых систем с данным сайтом.

Почему это важно. Отсутствие или неправильное заполнение файла robots.txt приводит к тому, что поисковики сами решают, какие разделы индексировать. В итоге они проиндексируют корзину, зеркала сайта, системные каталоги и много чего еще ненужного.

5. Дубли целевых страниц

На сайте часто встречаются страницы, дублирующие контент других страниц. Зачастую это обусловлено технической необходимостью, но речь сейчас не об этом. Необходимо правильно настроить файл robots.txt либо соответствующий атрибут rel=canonical. Поисковой робот должен индексировать только те страницы, которые вы ему укажете и пропускать запрещенные к индексации разделы.

Почему это важно. Здесь можно провести аналогию с зеркалами сайта. Дубли целевых страниц могут привести к понижению позиций ранжирования.

Читать еще:
562 6 Января 2019
Полная копия нашего сайта. Мошенники или конкуренты?
683 7 Сентября 2019
Интернет-реклама по названиям конкурентов – вне закона
1213 10 Сентября 2018
Новый блок "Вам может быть интересно" в поисковой выдаче
663 9 Января 2019
Как Яндекс относится к разным сайтам одной тематики под управлением одной фирмы?
SeoLand ® является зарегистрированным товарным знаком. 2007-2020 © Копирование информации запрещено.