logo
10 типичных ошибок в SEO на стадии создания сайта

10 типичных ошибок в SEO на стадии создания сайта

#SEO

SEO – инструмент достижения высоких позиций в поисковых системах. При грамотной реализации он позволит получать трафик и продажи, дешевые в сравнении с другими каналами привлечения.

Лет 7 назад для того, чтобы оказаться на вершине поисковых результатов, было достаточно просто купить ссылки на сайт сомнительного качества и минимально проработать тексты. Однако с тех пор алгоритмы поисковых систем значительно усложнились, и для достижения успеха необходимо детально проанализировать и доработать сайт с технической, коммерческой и контентной стороны. И тут нас подстерегает загвоздка.

Как правило, владельцы онлайн-бизнеса вначале заказывают сайты у веб-студий, и только потом задумываются о том, как именно они будут его продвигать и получать трафик. В результате, когда они приходят за помощью к SEO-студиям, выясняется, что сайт требует масштабной переделки для достижения хороших позиций в результатах поиска. К этому моменту заказчик уже изможден работой над сайтом, ему не хочется ничего менять, а хочется в отпуск и чтобы все хорошо работало без каких бы то ни было дальнейших исправлений. Тем более что многие правки касаются невидимых частей сайта, и необходимость их приходится принимать исключительно на веру. К сожалению, часто итогом становятся множественные компромиссы в оптимизации, что предсказуемо плохо влияет на результат работ по продвижению.

Для того чтобы такая ситуация не возникала, лучше всего привлекать SEO-специалиста уже на стадии разработки. Это позволит выпустить молодой сайт в индексацию сразу максимально привлекательным для поисковых систем.

Однако если по какой-то причине возможность привлечь SEO-агентство с самого начала разработки отсутствует, нужно постараться хотя бы избежать самых распространенных ошибок. В этой статье мы приводим 10 наиболее важных из них.

Серьезные

1) Отсутствие адаптивной версии сайта

Такая реализация мобильной версии, как адаптивный дизайн, официально рекомендован компанией Google как наиболее дружественный для SEO. Адаптивную верстку необходимо предусматривать уже на стадии ТЗ на разработку. В настоящее время 52% мирового веб-трафика генерируется мобильными устройствами, и потому подходящая для них версия сайта – обязательное условие успеха бизнеса.

2) Динамические адреса страниц

Для SEO оптимальны статические человеко-понятные адреса. Это позволяет передать поисковой системе структуру каталога и ключевое слово, основное для категории или карточки товара. Динамические же адреса передать эту информацию не могут, а к тому же часто являются причиной появления в индексе страниц-дублей или мусорных станиц. Рекомендуется использовать их исключительно для технических или служебных элементов сайта (к примеру, для разных типов сортировок), которые требуется закрыть от индексации.

3) Домен не на защищенном протоколе

Вот уже года три как протокол https является одним из факторов ранжирования в Google. Более того, Google Chrome отмечает сайты, которые его не используют, как небезопасные для пользователя. Переезд на новый протокол уже после начала индексации сайта возможен, но потребует склейки старого и нового «зеркала» сайта и вызовет колебание позиций сайта. Чтобы избежать этого, рекомендуется купить SSL-сертификат уже на стадии разработки.

4) Использование скриптов для отображения ключевых элементов сайта

К сожалению, многие поисковые системы все еще не очень хорошо умеют читать скрипты, даже Google признает, что не всегда делает это корректно. Из-за этого очень важно соблюсти баланс между красотой и стилем сайта и его пригодностью для продвижения. Крайне не рекомендуется использовать JavaScript для отображения внутренних ссылок или текста на странице. Все ключевые элементы сайта должны быть видимыми и нормально работать даже при отключенном отображении JavaScript в браузере. При этом вполне допускается использовать динамические элементы для улучшения дизайна.

5) Robots.txt допускает индексацию мусорных страниц и страниц-дублей

Большое количество ненужных страниц в индексе – распространенная причина плохого ранжирования сайта. Убрать лишние страницы можно и после релиза при помощи доработки файла robots.txt, однако удаляться из выдачи они могут довольно долго. Проще изначально не допускать их попадание, запретив индексацию сортировок, фильтров и других очевидно ненужных в выдаче страниц. Особенно важно проконтролировать недоступность для поисковых роботов личного кабинета пользователей – вы же не хотите, чтобы данные ваших клиентов попали в сеть?

Пример robots.txt официального сайта Ikea

6) Дубли или низкое качество метатегов на страницах

Часто свежий сайт, ни разу не побывавший в руках SEO-специалиста, добавляется в индексацию с временными или вообще тестовыми Title, Description и Keywords, и в итоге он не занимает вообще никаких позиций. Следует помнить, что теги имеют значительное влияние на позиции, особенно Title и h1. Они могут быть сформированы по шаблону, но все равно должны быть строго уникальными в рамках сайта и релевантными контенту страницы, на которой они размещены.

Также следует помнить, что тег Description отвечает за формирование сниппета в Google, и, сделав его цепляющим, вы сможете повысить вероятность того, что среди соседей по выдаче пользователь выберет и кликнет именно на ваш сайт.

Keywords же мы советуем вообще удалить и забыть как страшный сон. Этот метатег давно ни на что не влияет, но может принести много путаницы и этим навредить.

Некритичные, но важные


7) Отсутствие микроразметки

Микроразметка поможет вам дополнительно увеличить привлекательность сниппетов в поисковых системах, выведя туда цены, рейтинги и прочую полезную информацию. Ее отсутствие не является критической ошибкой, но довольно важно сразу ее предусмотреть, особенно для ecommerce проектов, чтобы сайт индексировался сразу с максимально обогащенными сниппетами.

8) Отсутствие фавикона

Фавикон это небольшая иконка, которая отображается перед названием открытой страницы в браузере, в истории браузера, в закладках, а также в результатах выдачи ряда поисковых систем, к примеру, Яндекса. Он способствует узнаванию бренда и увеличивает привлекательность сайта в результатах поиска тех систем, что его поддерживают. Создание и размещение его требует не больше 15 минут, так что крайне рекомендуется не забывать про него.

9) Некрасивая страница 404

К сожалению, у многих сайтов страница ошибки 404 входит в рейтинг наиболее посещаемых страниц, особенно пока сайт новый и в нем не найдены еще все возможные ошибки. Обратите проблему в свою пользу – пусть страница ошибки будет привлекательна и содержит ссылки на наиболее популярные разделы сайта, мотивируя пользователя продолжить путь по сайту.

10) Отсутствие карты сайта

Карта сайта в формате xml позволит роботам быстрее обойти сайт и включить его страницы в базу поисковых систем. Она, как правило, генерируется средствами CMS и ее создание не занимает много ресурсов. Не забудьте включить ссылку на нее в robots.txt, иначе ее не смогут найти поисковые роботы. Особенно важно наличие карты сайта для крупных сайтов, со сложной структурой и большим количеством страниц.

Передайте этот список разработчику на стадии согласования технического задания, и даже без привлечения к работе SEO-специалиста сайт будет на базовом уровне привлекателен для поисковых систем. 

Материалы по теме
Как поставить рекорд посещаемости сайта
Индекс авторитетности. Яндекс вводит новый параметр качества
Лет семь назад для того, чтобы оказаться на вершине поисковых результатов, было достаточно просто купить ссылки на сайт сомнительног...