Duplicate Content Filter -> SEO продвижение -> Дубли страниц на сайте

Повторяющийся контент на сайте

Одним из значительных недостатков сайта, способных завести его под фильтр как в Яндексе, так и в Google является дублирующийся или повторяющийся контент. Обычно причина его появления на сайте может быть связана как с недостатком CMS, так и с тем, что владелец сайта намеренно увеличил количество страниц web-ресурса, чтобы использовать их для продажи ссылок.

Когда страниц, содержание которых полностью состоит из материалов, дублирующихся на других материалах сайта, становится слишком много, сайт может полностью потерять трафик или даже выпасть из поиска. Особенно опасен повторяющийся контент для молодых сайтов, которые еще не приобрели достаточно «веса» в поисковых системах, поэтому могут быть зафильтрованы за любую ошибку. В Google для борьбы с такими сайтами используется фильтр Duplicate Content. В Яндекс подобные некачественные web-ресурсы обычно попадают под АГС.

Как возникает повторяющийся контент на сайте?

Как правило, появление дублирующегося материала связано с недостатками используемой CMS или недостаточно тонкой ее настройкой. Страницы с результатами поиска по сайту, архивы, где в качестве анонсов используются первые абзацы статей, облако тегов или метки, служебные документы, не запрещенные к индексации в robots.txt, могут завести сайт под фильтр.

Предупредить попадание сайта под фильтр довольно просто: следует запретить к индексации в robots.txt ненужные страницы (как это сделать в WordPress, читайте в статье Правильный robots.txt для WordPress), прописать для статей уникальные анонсы, а также удалить с сайта документы, содержащие служебную документацию, входящую в комплектацию к CMS.

Проанализируйте каждый тип материала на сайте и определите его пользу для посетителя, а также постарайтесь взглянуть на него глазами поисковых роботов. Если вся страница состоит из отрывков статей, дублирующихся на других страницах, то какой шанс, что она будет хорошо ранжироваться в выдаче?
Несколько лет назад веб-мастера, используя WordPress, намеренно увеличивали число страниц сайта, в несколько раз приумножая количество тегов, архивов, рубрик, категорий и прочих элементов, позволяющих классифицировать статьи на сайте. К примеру, к одной записи, состоящей из нескольких предложений, могло прилагаться свыше ста меток, каждая из которых вела на отдельную страницу. Такие сайты изначально абсолютно не приносили трафика ни в Google, ни в Яндексе. Однако они прочно держались в индексе, что позволяло их владельцам зарабатывать, продавая места под арендные ссылки. С появлением в Яндексе фильтра АГС (индексация в Google «веб-мастеров» абсолютно не интересовала) бизнес по продаже ссылок постепенно начал сходить на нет.

Дублирующийся контент на трастовых сайтах

Некоторые веб-мастера и SEO-оптимизаторы, когда их более опытные коллеги советуют им изменить структуру сайта, чтобы устранить сайта, ленятся это делать, приводя в пример крупные трастовые проекты, где зачастую неуникальные анонсы встречаются на нескольких страницах сразу. Мол, у них тоже есть повторяющийся контент, но эти сайты в топе и собирают неплохой трафик.

А дело в том, что когда многолетний, ежедневно наполняющийся сайт определяется поисковыми алгоритмами как качественный проект, сделанный для людей, некоторые ошибки в структуре web-ресурса становятся слишком малозначащим фактором, чтобы они могли повлиять на ранжирование. В тоже время для молодого сайта, зачастую и от сателлита еще ничем не отличающегося, данный фактор может оказаться смертельным.
Вывод. Избавляться от дублей необходимо на самом раннем этапе сайта, чтобы страницы, содержащие повторяющийся контент, не успели бы проиндексироваться и негативно повлиять на ранжирование сайта.


Меню сайта

Повторяющийся контент на сайте
Повторяющийся контент на сайте