Ошибки разработки, которые мешают SEO-оптимизации
Часто возникает такая ситуация, когда использование советов поисковых систем по оптимизации сайта не дает ничего, так как некоторые идеи воплотить технически или логически просто невозможно. Вам знакома ситуация, когда за готовый сайт садится SEO-оптимизатор и создает огромное техническое задание? Задания, согласно которому половину сайта приходится переписывать?
Встает вопрос: что делать? Либо снова переделывать весь сайт, начиная от уже еле согласованного заказчиком макета, или использовать многочисленные костыли. В результате получаем ситуацию, когда либо надо менять что-то «на горячую», либо использовать всяческие ухищрения. А все это – время и деньги. И далеко не всегда это деньги заказчика.
Перечислим типичные ошибки разработки, которые приводят к таким проблемам.
Структура сайта спроектирована без учета SEO-ядра
Как правило, еще до запуска сайта известны основные источники трафика, с которых будет «литься» поток пользователей на сайт. Если ставка делается на естественный трафик из поисковых сетей, то в этом случае структурировать сайт стоит в присутствии SEO-оптимизатора. Особенно это важно для интернет магазинов, где один и тот же товар может иметь совершенно разные названия, или где одно название будут иметь сразу несколько товаров.
Если этого не сделать, велика вероятность того, что во время продвижения будет сильно меняться структура сайта, необходимо будет постоянно создавать какие-то блоки навигации, делать перекрестные ссылки, усложнять Usability ресурса. Мало того, что все это требует большого количества времени и затрат, это еще и негативно сказывается на удобствах пользователя.
Избежать этого просто: необходимо во время проектирования логики сайта создавать структуру с учетом будущего SEO-ядра. При этом не требуется иметь на руках полный список запросов, сгруппированных по посадочным. Достаточно просто определиться с месторасположением основных посадочных страниц, сохраняя при этом логику сайта. Для этого достаточно базового сбора ключевых запросов.
Присутствие SEO-специалиста позволит избежать глупой работы, и не позволит превратить сайт в тришкин кафтан после SEO-оптимизации.
Отсутствие группы посадочных
Некоторых посадочных просто может не быть, в частности, при использовании фильтров. Представим, что у вас есть интернет магазин обуви, в котором есть удобный фильтр, позволяющий сортировать всю продукцию по странам-производителям. Соответственно, если вам нужна посадочная под запрос «купить обувь из России» или «купить отечественную обувь», то возникнут проблемы. Придется придумывать некий костыль, который будет представлять собой вывод результата работы фильтра на отдельно взятой странице. Можно ли это сделать? Можно, но сложно.
В отличие от других страниц, которые создает внутренний фильтр сайта, посадочная страница под запрос «купить отечественную обувь» должен индексироваться. Кроме того, должна быть возможность настраивать в таких страницах Title, Description и другие метатеги.
Здесь проблема частично пересекается с предыдущей: необходимо заранее знать список запросов, чтобы спланировать логику сайта, а также предусмотреть наличие посадочных для результатов работы фильтра.
Посадочные находятся вне структуры основного каталога сайта
Самый часто встречаемый костыль на коммерческих сайтах. Когда посадочных нет, создают отдельные страницы, которые прячут от основной навигации. Планируется, что пользователь должен попасть на посадочную, после чего перейти в основную структуру сайта, и взаимодействовать с сайтом дальше.
Однако в этом случае очень сложно добиться грамотной внутренней перелинковки: ссылки на посадочные страницы должны быть либо сквозными (что полезно для посадочных страниц, но вредно для сайта в целом), либо иметь всего одну входную ссылку (что безопасно для сайта, но не дает никакого ссылочного веса самой странице). Существенно ухудшаются и поведенческие факторы.
Как это лечить? В идеале это должно работать следующим образом: если при выборе фильтра пользователь выбирает «производство Россия», то в этом случае он попадает на посадочную страницу. Кроме того, полезным будет внутренняя контекстная перелинковка страниц.
Мусор в индексе
Обратная сторона медали – это присутствие в индексе большого количества мусорных страниц: страниц тегов, меток, результатов поиска. Лечиться это достаточно просто, но редко. Как правило, спасает грамотная настройка директивы robot.txt. Также стоит избавиться от наличия индексируемых страниц с параметрами и сессионными переменными. Если robot.txt трогать не хочется, стоит вспомнить про метатег Noindex.
Ошибка автозаполнения полей
Большое количество полей на больших сайтах заполняются автоматически. Ручное заполнение большого количества данных – очень трудоемкий, неэффективный и, говоря масштабно, нерентабельный процесс.
Но тут могут возникнуть проблемы, связанные либо с незаполненными полями, либо с наличием дублированных полей. В результате у вас на сайте могут появиться страницы с одинаковыми заголовками и другими метаданными. Все это приведет к потере низкочастотного и среднечастотного трафика.
Чтобы этого избежать, необходимо создавать какой-то алгоритм проверки уникальности метаданных, либо создавать свой алгоритм для каждого раздела или части структуры сайта. Это позволит достаточно гибко настраивать шаблоны сайта, а также избежать дублирования полей. Однако всегда стоит оставлять возможность ручной правки отдельно взятой страницы, чтобы в случае необходимости что-то изменить.
Подводя итоги
Необходимо привлекать SEO-специалиста еще на том этапе, когда согласовывается макет сайта. Это позволит сразу же говорить в определенных рамках, ведь SEO-оптимизатор также заинтересован, чтобы сайтом было удобно пользоваться. Ведь чем лучше поведенческие факторы – тем меньше ссылок нужно будет купить в дальнейшем.
Кроме того, учет базовых требований SEO-специалиста позволит избежать бесконечных изменений сайта, далеко не всегда эффективных.
Комментарии