Общая стратегия очеловечивания интернет-ресурсов привела к тому, что фраза «сайт для робота» превратилась в ругательство. На самом деле, если не учитывать особенности восприятия информации роботом, то можно заранее вынести приговор своему ресурсу.
Нужно, чтобы вся информация, представленная в интернете, была одинаково правильно выстроена и для людей, и для роботов. Только тогда создание сайта приведет к нужному коммерческому результату.
Да, действительно, раздражают тупые страницы с нечеловеческим контентом, где нет ни одного слова, рассчитанного на живого человека. Но не в меньшей степени раздражают страницы, которые подолгу грузятся. И поверьте, такие страницы, раздражают не только человека, но и робота. Есть и еще множество раздражающих факторов, которые для нас незаметны, а для поисковой машины очень даже ощутимы.
И если бы сегодня одинаково учитывались и факторы юзабилити, и нюансы технической грамотности, тогда многие ресурсы были бы спасены от забвения массами еще в зародыше. К сожалению, в рунете многие пользуются доисторическими методами в расчете на то, что еще вчера они отлично работали. Особенно это характерно для регионов. Под тем, что должно включать в себя создание сайта, Воронеж и Липецк, Тамбов и Красноярск понимают одно, а Москва – другое. Соответственно, многие технические нюансы в регионах часто не учитываются.
Невалидный код, неправильные настройки 404 страниц, отсутствие элементарных технических «путеводителей» робота по страницам – все это понижает ранжирование ресурса, а соответственно и его позиции в поисковой выдаче. И как ни парадоксально, если изначально создавать сайт не для робота, то потом автоматически его уже трудно будет сделать и более человечным, если стоит задача продвинуть его в топ 10.
Если технические нюансы продвижения не были учтены, позиции страдают. Оптимизаторы в отчаянии начинают заспамливать ресурс. Это тоже не повышает доверия поисковика и позиции все равно не становятся стабильными. Если бы изначально были учтены все необходимые технические моменты, многими спамными методами пользоваться вообще не пришлось бы. И перед нами был бы человеческий ресурс со стабильными позициями без всякого лишнего спама.
Какой из этого нужно сделать вывод? Все просто: ни в коем случае не стоит обходить стороной все те технические рутинные операции, которые помогают роботу ориентироваться в информации. Это и составление sitemap.xml, и файл robots.txt, и работа с зеркалами сайта, и отслеживание битых ссылок, и правильная настройка редиректов. Все это те технические «мелочи», которые потом выливаются в крупные неприятности для сайтов. Так что надо уже сделать девизом: делайте сайты и для роботов тоже. Ведь робот – тоже человек. И о нем позаботиться надо. А он в свою очередь позаботится о ранжировании вашего сайта.