Контент для сайта. Дублирование контента: чем опасно и как бороться

сентября 19 10:51 2012

Здравствуйте, уважаемые читатели! Для того, чтобы сайт функционировал и, соответственно, продвигался нормально, – с ним нужно постоянно работать, в него нужно постоянно вкладываться. Работа подразумевает собой правильную внешнюю и внутреннюю оптимизацию.

Внешняя оптимизация включает в себя размещение ссылок на тематических сайтах, баннеры и проч.

Внутренняя оптимизация — это, прежде всего, уникализация имеющегося контента. Далее распределение по страницам ключевых слов, а также оптимизация скорости загрузки страниц сайта, поведение посетителей.

Но вернемся к контенту. Он должен быть изначально уникальным, если нет, то нужно делать его уникальным вручную и оперативно обновлять. Только уникальный контент ценится и поисковыми системами, и людьми.

Что такое дублирование контента

Смотрите весь видеокурс на iTunes

Чем вреден дублированный контент?

Для начала нужно разобраться, что вообще такое контент для сайта. В большинстве случаев контент сайта — это массив оптимизированной текстовой информации, которую видят пользователи и асессоры, а полезный контент — главный показатель качества любого интернет-ресурса.

Для пользователей важно получать оперативно обновленную, «свежую» и интересную информацию. В противном случае они не будут находиться на сайте необходимое для индексирования время. В этом случае асессор характеризирует сайт, как «неполезный» и в отчетном файле рекомендует к понижению позиций.

Для асессоров дублированный контент на сайте сигнал того, что сайт продвигается «черными» методами. Стоит роботу найти хоть один текст с признаками копипаста – сайт будет понижен в выдаче, а дальше хуже — попадание под фильтр, трехмесячный карантин или вылет навечно.

Чтобы предотвратить негативные последствия, нужно знать некоторые моменты работы с собственным сайтом.

Зачастую опасность приходит не из вне, а изнутрии. Поэтому нужно обезопасить себя при работе с новостными RSS-лентами, незакрытыми от асессоров служебными страницами сайта, страницами предназначенными для печати (на них находятся автоматически дублированные тексты), с незакрытыми дублями контента, которые создаются системой управления сайта (CMS).

Решить проблему можно только с помощью запрета на индексацию служебных страниц.

Как проверить текст сайта на наличие дублей?

Чтобы проверить страницы своего сайта воспользуйтесь такими программами: eTXT Антиплагиат, Double Content Finder, AdvegoPlagiatus. Чтобы провести проверку в режиме онлайн, воспользуйтесь такими инструментами: istio.com, copyscape.ru, findcopy.ru, antipagiat.ru.

Также следует учитывать тот факт, что контент сайта — это порой бесконтрольный проток информации (RSS-ленты), откуда может поступить дублированный контент.

Проверки нужно проводить с определенной периодичностью. Желательно чаще, чем это делают асессоры поисковых систем.

Хотя можно прибегнуть к помощи тех же асессоров. К примеру, если вы хотите, чтобы Яндекс показал все скрытые от человеческих глаз страницы, нужно ввести в поисковое поле правильное полное название страницы, которую вы хотите проверить на предмет наличия дублированного контента. Поиск должен быть расширенным. Поисковик предоставит нужную информацию в течение нескольких минут.

Что делать с дублированным контентом?

Если вдруг после проверки выяснилось, что на сайте имеется дублированный контент, имеет смысл незамедлительно провести чистку текстов.

Если есть тексты, которые по каким-то причинам нельзя удалить или не удается это сделать, их нужно скрыть. Это будет не так опасно, как пустить ситуацию на самотек. Ведь контент сайта — это не только «видимые» тексты.

Для того, чтобы закрыть от индексации поисковиков страницы содержащие дубли, нужно прописать с помощью мета-тега «robots» правильный путь для асессоров. Тег имеет стандартизированную атрибутику: index — можно индексировать, follow – допускается фиксация ссылок, noindex — индексировать запрещено, nofollow – нельзя учитывать ссылки, all — можно индексировать все, none – нельзя ничего не индексировать.

Робот будет действовать по заданному алгоритму, конечно, он будет видеть абсолютно все тексты, но учитывать лишь нужные. Этот тег удобный и простой инструмент для работы. Им могут пользоваться даже новички.

У Яндекса тоже есть примерно такой тег, он выделен в отдельную категорию и немного отличается от «robots». С его помощью можно закрывать отдельные части текстов, что очень удобно при проведении «чистки» дублей.

Файл «Robots.txt»

Файл «robots.txt» — подробная текстовая инструкция для асессора с заданным алгоритмом работы. В нем находится все: запрет на индексацию, путь к зеркалу, карта сайта, временные рамки индексирования страниц. Очень нужная штука. Если у вас нет этого, то потратьте деньги или собственное время и пропишите файл.

write a comment

Комментариев нет

No Comments Yet!

You can be the one to start a conversation.

Add a Comment

Your data will be safe! Your e-mail address will not be published. Also other data will not be shared with third person.
All fields are required.