Технологии, предназначенные для создания и SEO-продвижения ресурсов, не стоят на месте, каждый апдейт Google тщательно анализируется и учитывается при разработке сайтов. Если не обращать внимания на требования поисковых систем, то никаким образом не получиться вывести виртуальный проект в ТОП-10 выдачи. Но есть ещё много, так называемых специалистов, ошибки которых просто убивают сайт. Эта статья посвящена именно таким основным просчетам, которые допускают веб-разработчики и SEO-специалисты.
Отсутствие или неправильная настройка 404 страницы
Причин возникновения 404 ошибки на сайте существует несколько, их можно разделить на два типа:
-
Внутренние. Они возникают вследствие просчетов в навигации или неправильной перелинковки внутри ресурса.
-
Внешние. Появляются по причине битых ссылок с чужих площадок или неправильном написании UPL.
От этого никто не застрахован поэтому следует не забывать о создании и настройке 404 страницы. Её правильное оформление позволит удержать пользователя на сайте и перенаправить его на рабочие страницы. Этого можно добиться если дизайн этой страницы будет выдержан в общем стиле проекта, а её наполнение будет содержать элементы его навигации.
Наличие дубликатов Title
Так как этот тег содержит заголовок документа, то в первую очередь именно к нему обращается поисковый бот при индексации страницы. Дублирование Title размывает релевантность страниц и в результатах поиска они будут конкурировать. В итоге верхние строчки может занять совсем не тот документ, на который сделана ставка или при ранжировании проиграют обе страницы. Одинаково прописанные Title в двух разных документах всегда негативно влияют на их индексацию. Проверить наличие дублей этого тега, можно используя сервисы:GoogleWebmaster, СайтРепорт и прочие.
Неправильно созданный description
Этот тег позволяет создать сжатое описание страницы, которое отображается не в теле документа, а в SERP под Title и ссылкой на ресурс. Считается, что этот тег не влияет напрямую на релевантность страницы и ранжирование проекта. Но неправильно составленный description может негативно отобразиться на окончательном решении пользователя посетить сайт. Поэтому при его написании следует придерживаться следующих правил:
-
Описание должно быть привлекательным и лаконичным без использования общих фраз. Текст должен давать пользователю полное представление о сведениях, содержащихся в документе.
-
Содержимое description должно быть уникальным.
-
Правильно составленный тег должен не превышать 200 знаков и содержать ключевые слова.
Это позволит пользователю увидеть в сниппете полезные сведения, а не часть произвольного текста, выбранного поисковиком.
Отсутствие заголовков h1
Ещё одна из SEO-ошибок, которая может не лучшим образом повлиять на ранжирование проекта. Для поисковых ботов при индексации, заголовки h1 имеют большое значение для определения релевантности страницы. Поэтому они должен писаться с соблюдением следующих требований:
-
Заголовки должны содержать основные ключевые фразы и отображать суть документа.
-
H1 должны отображаться более крупным шрифтом, чем заголовки нижних уровней.
-
Размещать их необходимо вверху документов, над всем остальным текстом.
Отсутствие h1 сильно усложнить попадание ресурса в ТОП-10 выдачи.
Наличие битых ссылок
Когда пользователь, переходя по ссылке, не находит необходимый ему контент, то он закрывает такую страницу, что негативно сказывается на пользовательском факторе. Не менее плохо относятся к ресурсам с битыми ссылками поисковики. Их боты при индексации осуществляют переходы по всем находящимся на странице ссылкам и четко фиксируют какие из них ведут на отсутствующие страницы. А так как все поисковые сервисы ориентированы на качественную выдачу, то сайты с большим количеством битых ссылок не будут отображаться в SERP. Google за это накладывает фильтр BrokenLinks.
Отсутствие sitemap
По своей сути sitemap является файлом, содержащим сведения о подлежащих индексированию страницах ресурса. Благодаря этому поисковый бот Google узнаёт:
-
Какие страницы проекта следует индексировать.
-
С какой периодичностью обновляется контент.
Особенно это важно если площадка исчисляется многими тысячами страниц и имеет сложную структуру их вложения. В SEO-продвижении sitemap играет определенную роль, при отсутствии этого файла значительно замедлится индексация документов, а некоторые страницы могут быть проигнорированы поисковыми ботами.
Отсутствие файла robots.txt
Наличие такой ошибки на сайте может существенно повредить SEO. Robots.txt содержит четкие инструкции для поисковых ботов – которые из страниц подлежат индексации, а какие нет. Почему это важно для продвижения ресурса? Если бот Google зайдет на ресурс и обнаружит там отсутствие этого файла, то он начнет индексировать всё подряд. Но на сайте есть много того, что не предназначено для индексации: дубликаты страниц, системные файлы, рубрики ключевых фраз и прочее. Это может привести к тому, что до разделов с важной информацией бот так и не доберется и они не окажутся в результатах выдачи.
Открытые к индексации исходящие ссылки
Наличие исходящих ссылок на веб-проекте должно быть строго регламентировано. Их большое количество, особенно неконтролируемых, которые появляются в комментариях посетителей может принести только вред:
-
Любая исходящая ссылка способствует отдаче статистического веса ресурса.
-
Чем больше таких ссылок, тем подозрительней к веб-проекту относятся поисковики. Что в итоге может подвести ресурс под фильтр Google,названный Links.
Так, что, если есть желание убить свой виртуальный проект забудьте о закрытии от индексации плохих исходящих ссылок.
Неуникальные тексты
Здесь попасть в немилость к Google можно в двух случаях:
-
Если на страницах ресурса размещается копипаст.
-
Когда страница с украденным у вас контентом попала первой в индекс.
В любом из этих случаев можно оказаться под фильтром поисковика Duplicate Content. Чтобы этого избежать следует защищать контент от копирования и размещать в разделах сайта только уникальные тексты.
Отсутствие аналитики
Еще одна ошибка некоторых владельцев виртуальных проектов заключается в нежелании заниматься веб-аналитикой. Такой анализ позволяет разобраться:
-
В сильных и слабых сторонах конкурентов. Это позволит избежать ошибок на этапе разработки.
-
Какие размещенные материалы наиболее заинтересовали пользователей.
-
По каким ссылкам и ключевым запросам было более всего переходов.
-
Сколько целевых пользователей принесла маркетинговая кампания и прочее.
Если не пользоваться аналитическими инструментами, то о своевременной корректировке SEO и попадании в ТОП-10 можно забыть.
Заключение
Работа по созданию ресурса и его раскрутке сложный процесс, но если не следить за требованиями поисковиков, допускать просчеты в стадии его создания и SEO-ошибки, то убить сайт можно очень быстро.