Главная \ Полезная информация \ Оптимизация без дураков, или как избежать глупых ошибок, которые могут тормозить развитие проекта

Оптимизация без дураков, или как избежать глупых ошибок, которые могут тормозить развитие проекта

Известно, что если не развивать веб-ресурс постоянно и не заботиться об улучшении его позиций в результате поисковой выдачи, посещаемость сама собой не вырастет. Вместе с тем, есть ряд простых технологий, которые позволяют увеличивать ежедневный трафик. В предыдущих выпусках мы говорили о них: написание текстов для людей, грамотное HTML-оформление страниц, внутренняя перелинковка и пр. Все эти деяния «квалифицируются» как благоприятные, однако, бывают случаи, когда вебмастера обращаются к таким действиям, которые способны вмиг перечеркнуть ценные результаты, полученные ранее. О них и поговорим.

  1. «Битые» ссылки: найти и обезвредить

«Битыми» называются ссылки, которые никуда не ведут. Если Вы линкуете страницы торопливо, Вы можете легко допустить ошибку, указав путь на ту, которая не существует, а, следовательно, не открывается. И это очень плохо.

Однако поспешность – не единственная причина допущения ошибки. Иногда при реструктуризации сайта меняются названия страниц. Если при этом не исправить внутренние ссылки, которые раньше связывали статьи, они поведут посетителя в пустоту под названием «404 Page not found».

Такая тема сводит на нет все Ваши усилия. Только представьте: Вам с трудом удалось привести пользователя на сайт по высокочастотному запросу, а он, решив ознакомиться с ценами, потерпел неудачу, получив вместо прайс-листа злополучные 404. Считайте, что потенциального покупателя Вы потеряли, а все потому, что ранее переименовали страницу «price_list» на «price», но пути не исправили.

Не оставляют без внимания такие «фокусы» и поисковые системы: за то, что линк ведет «в никуда», они автоматически понижают сайт в выдаче.

Обязательно проверьте сайт на наличие битых ссылок! Поможет Вам в этом специальный сервис: http://www.brokenlinkcheck.com/.

  1. Дубли страниц

Распространенная ошибка, к которой приводят особенности работы системы управления сайтом или промахи вебмастера при изменении структуры – появляются страницы с одинаковым содержанием, но имеющие разные URL-адреса.

Часто ссылки на них разнятся парой символов, однако, пользователя это совершенно не смущает. Действительно, какое нам дело до адреса страницы?! Нам ведь важна информация!

Иначе обстоит дело с поисковым роботом. Обнаружив дублирующий контент, он не может оценить, была ошибка допущена случайно или намеренно. Одинаковые тексты на страницах – это маяк признать контент неуникальным и высоко не ранжировать.

Появление дублей страниц чревато распределением между ними «ссылочного веса». Иными словами, если Вы, продвигая страницу, рассчитываете передать ей вес, он делится между дублями, потому что внутренняя перелинковка эффективно уже не работает. В результате сайт не получает достойное место в выдаче.

Чтобы проверить ресурс на предмет дублей, необходимо взять со страницы небольшой текстовый фрагмент и вставить в поисковую строку Яндекса или Google. Если в результатах выдачи Вы обнаружите несколько ссылок на свой сайт, будьте уверены – перед Вами «двойники».

  1. XML-карта сайта: что, если ее нет?

Прежде всего, давайте определимся, что она из себя представляет.

XML-карта – это специальный файл, который состоит из списка адресов всех страниц сайта, времени, когда они были созданы или изменены, и иной вспомогательной информации. Создается такой файл для удобства поисковых ботов, ведь заходя на сайт, он первым делом ищет именно его. Корректно созданная, XML-карта не позволит боту блуждать по «лабиринтам» внутренних ссылок.

Какие плюсы получите при этом Вы? Новые страницы будут индексироваться, а удаленные – исключаться из базы данных поиска быстрее в разы!

Надеемся, что наши рекомендации пойдут на пользу Вашему бизнесу. Удачи!