Внутренняя оптимизация сайта

Внутренняя оптимизация касается исключительно самого сайта и его структуры. Ее главная цель — эффективно направить в нужное русло работу поисковых роботов. Поэтому необходимо убедиться, что они правильно поймут и проиндексируют всю полезную для продвижения информацию и не обратят внимания на все остальное.

Пожалуй, самым важным аспектом внутренней оптимизации, без которого просто невозможно успешное продвижение сайтов, является обеспечение полной индексации сайта. Поисковый робот должен пройтись по всем страницам, обработать их содержимое специальными алгоритмами ранжирования и добавить в индекс поисковой системы.

Самая большая проблема тут заключается в том, что сам по себе робот способен найти только первую страницу сайта. Дальше он просто использует находящиеся на ней ссылки, но иногда на внутренние страницы можно попасть только по генерированным в javascript или флэш ссылкам, отчего они так и остаются не проиндексированными. Для решения этой проблемы в каталог сайта добавляется специально отформатированный XML файл, содержащий перечень всех страниц сайта.


Еще одно препятствие, способное серьезно подорвать эффективность продвижения, — это дублирующийся контент. Сегодня создание сайтов на основе автоматической генерации страниц — самый простой и удобный способ организации современного сайта. Он экономит место за счет исключения повторяющихся моментов, но при этом создает почти одинаковые страницы, доступные по разным адресам.

Поисковые роботы могут выбрать для перенаправления трафика любую из них и нередко останавливают свою выбор на версиях для печати, архивных копиях и прочих страницах, попав на которые живой пользователь не сможет нормально взаимодействовать с сайтом. Подобные страницы необходимо закрыть от индексации или явно указать в них первоисточник.

Считается, что Яндекс может сам определить ненужные повторы, но иногда он воспринимает их неверно и может наложить на сайт санкции, например, отправить его под фильтр. В этом случае доказать потом что-либо будет очень сложно. Поэтому лучше закрыть все дублирующие рубрики самостоятельно в robots.txt. Найти различные правильные варианты можно в сети. Останется просто добавить файл в корневую папку или через плагин.

И даже корректно проиндексированные страницы способны быть совершенно неверно истолкованы. Поисковый робот не понимает смысла написанного и опирается в своих суждениях исключительно на расположение текстовых блоков на странице и соотношение разнообразных фраз в тексте. В какой-то степени с тематикой помогает разобраться заголовок, но красивое иносказательное название может вогнать в ступор машину. Есть еще множество нюансов, которые могут отрицательно сказаться на репутации сайта. Особенно это важно для молодых ресурсов, так как старые уже заработали в глазах ботов какой-то «авторитет», и у них гораздо меньше шансов попасть в немилость. Но все равно такой вариант исключать нельзя.

Поэтому на внутренней оптимизации лежит задача разъяснить роботам смысл сказанного через специальные невидимые обычному пользователю метатеги. В них можно прямо прописать все ключевые слова и указать краткое содержимое статьи.

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *