Оптимизация сайта. Дубли

Одной из главных причин, из-за чего поисковые системы могут снижать позиции сайте по тем или иным ключевым запросам – большая численность дублей страничек на веб-сайте.

Они могут возникнуть вследствии отличительных черт работы CMS, в стремление обрести огромный трафик из поиска с помощью стандартного повышения числа страниц на веб-сайте.

Если у вас не получается полностью удалить дубликаты страниц, то воспользуйтесь услугами компании https://topseo.ua/. За небольшую плату мастера проведут оптимизацию сайта, почистят код, прикроют дубли страниц. Целевой трафик резко увеличится, а сайт станет лучше индексироваться.

Проблема дублей довольно плотно перекликается с задачей поиска канонического адреса страничка анализатором. Интересно, что для Yandeх’a дубли страничек не играют особой роли и не понижают результаты выдачи. Можно расставить приоритеты, таким образом не потеряв ни трафик, ни количество страниц в выдаче. А вот Google к таким дубликатам страничек относится наиболее жестко. Пользователь может попасть из поисковой системы не на статью, а в раздел. Этого нельзя допустить, поэтому следует или удалить дубли или запретить их индекс.

Как найти дубликаты страниц?

1. Гугл-вебмастер. В панели оптимизатора можно увидеть число циклических описаний, заголовков. Обнаруживаются частичные или клоны страниц, мета-данных и заголовков, хотя к несчастью, не вычислить выборочные дубли, текст которых уникален, которые но стандартные заглавия.

2. Утилита Xenu. Софт Xenu - утилита, при помощи которой можно проводить частичный или полный аудит веб-сайта и даже отыскать дублирующиеся заглавия. Про сканируйте веб-сайт, отсортируйте конечные результаты по заглавию и выискивайте совпадения. Этот метод имеет такой же недочет – не при помощи него можно обнаружить выборочные дубли страничек.

3. Выдача поисковиков. Итоги поиска могут отобразить не только релевантную выдачи веб-сайта, но еще и отношением поисковика к тем или иным страницам. Для того, чтобы отыскать дублкаты страничек в google можно пользоваться особым запросами, на основнии которых дубли можно удалить.

Можно найти малоинформативные странички и выборочные дубли, которые не принимают участие в поиске.

Что делать с дубликатами?

Если нет возможности полностью удалить страницы-дубли, то нужно запретить их индекс. Сделать это можно в файле robots.txt. Пропишите там все дубликаты страниц или разделы, где они могут быть. Таким образом, вы значительно облегчите работу поисковых систем. Отныне будут индексироваться лишь значимые страницы. Количества страниц в поисковой выдаче может резко сократиться, однако целевой трафик увеличится.



 

Добавил: help10 · Категория: Услуги · Просмотров: 29 · Комментариев: 0

Похожие материалы
1
1
1
1
1
Всего комментариев: 0
Добавлять комментарии могут только зарегистрированные пользователи.
[ Регистрация | Вход ]