Базовая оптимизация. Основные моменты
Базовая оптимизация не видна обычному посетителю, но очень важна для поисковых роботов. Она помогает поисковикам корректно индексировать сайт, что улучшает представление вашего сайта в поисковой выдаче и предупреждает возможные ошибки индексирования.
Основные принципы базовой оптимизации изложены в требовании к качеству сайтов Google и Яндекс.
Несмотря на сухость изложения, там много полезной информации. По сути, это самая первая и главная инструкция SEOшника.
Итак базовая оптимизация включает:
1. Robots.txt. Текстовой файл, который находится в корне сайта и содержит инструкцию для поискового робота. Здесь мы можем запретить или разрешить индексацию определенным ботам конкретных страниц и разделов. Этот файл в первую очередь полезен тем, что здесь мы запрещаем индексацию малополезных, технических и дублирующихся страниц. Ресурсы поискового бота тратятся только на те страницы сайта, которые мы продвигаем по нужным запросам.
Если не настроить robots.txt, бот будет индексировать все страницы подряд и показывать в индексе технические страницы, в то время как важные целевые страницы могут остаться не в поле его зрения.
2. Карта сайта. Специальный файл, в котором указаны все доступные для индексации страницы с датой публикации и уровнем приоритета. Карта сайта помогает поисковому роботу быстрее индексировать сайт и сразу видеть новые страницы.
3. Метатег titile .Один из важнейших элементов оптимизации. Именно по этому заголовку поисковик определяет о чем ваша страница. Title это как имя автора в картотеке библиотеки. По этому тегу поисковик производит первый этап выбора страниц для показа пользователю на его запрос.
Также titile берется за основу при формировании сниппета (краткое представление страницы в поисковой выдаче), и влияет на кликабельность.
4. Метатег description. Раньше этот метатег активно участвовал в формировании сниппета, но сейчас его роль уменьшилась. Возможно вскоре он также перестанет учитываться поисковиками, как и канувший в лету метатег keywords. Но пока этот метатег содержащий краткое описание сути страницы все еще в тренде. И его отсутствие на страницах поисковики в панели вебмастера отмечают как ошибку.
5. Форматирование текста. Робот понимает значимость и вложенность подзаголовков по тегам h1 — h6. При этом тег h1 должен быть один на страницу и обозначать заголовок статьи. Списки должны быть оформлены не просто переносом строки а тегами ol и ul.
Вообще форматирование текста не только облегчает визуальное восприятие его пользователем, но упрощает понимание смысла поисковым роботам. И естественно нежелательно размещать текст в виде картинок — их робот пока еще не научился читать.
6. Описание для картинок. Чтобы помочь роботу понять смысл картинки, ее необходимо снабдить тегом alt, в котором кратко описать ее суть.
7. Установка счетчиков. Поисковики лояльнее относятся к сайтам, которые дают доступ к анализу поведения пользователей. Если вы поставили счетчики Яндекс и Google, то вам нечего скрывать от поисковиков. Плюсом является то, что поисковики могут корректно оценить поведенческий фактор, который сейчас самый главный при ранжировании.
8. Региональность сайта. В панели вебмастера Яндекс необходимо указать, к какому региону принадлежит сайт. Это даст вам преимущество в региональной поисковой выдаче.
9. Настройка редиректов. Одна и та же страница должна быть в одном экземпляре, но часто бывает, что из-за технических ошибок на сайте одну и ту же страницу можно открыть по таким адресам:
http://site.com/text
http://site.com/text/
http://site.com/text.html
https://site.com/text
https://site.com/text/
https://site.com/text.html
Для поискового робота это шесть разных адресов. Настройку редиректов проще всего сделать в конфигурационном файле .htaccess, который доступен независимо от типа хостинга.
Кроме того протокол сайта отдельно указывается для бота Яндекса в файле robots.txt в директиве Host:
10. Указание канонического урла. Кроме вышеприведенных примеров, дубли страниц могут генерироваться путем дописывания в конце урла произвольных символов через слэш или добавлением переменных.
Например вот так:
http://site.com/text?p=hjhjh
Для этих случаев желательно прописывать метатег link rel=»canonical». Тогда поисковый робот будет видеть канонический урл и будет считать все возможные дубли одной страницей.
Указывать канонический урл не обязательно, если вы уверены, что у вас все редиректы настроены правильно, а все возможные дубли закрыты от индекса в robots.txt
11. ЧПУ (человекопонятный урл). Поисковики при ранжировании учитывают текст в урле, поэтому ссылка должна указывать на тему страницы. Кроме того на понятные читаемые ссылки люди кликают охотнее.
Кроме всего описанного базовая оптимизация показывает насколько у вас все организованно и как вы следите за своим сайтом. Отсутствие на сайте всех этих элементарных признаков оптимизации дает четкий сигнал поисковикам, что им не занимаются и поисковых роботов здесь не ждут. Соответственно такой сайт не будет достойно представлен в поисковой выдаче.
Базовая оптимизация — это как вывеска на вашем магазине и выметенный пол. Это означает, что вы рады видеть на страницах своего сайта поискового робота, который увидев порядок, вслед за собой обязательно приведет посетителей.