Главная » Продвижение » Clean-param для robots.txt Яндекса или удаляем дубли страниц

Clean-param для robots.txt Яндекса или удаляем дубли страниц

Опубликовано: 03-12-2010 | Автор : Vch54ti

0

В ряде случаев в индексе Яндекса образуются дубли страниц, которые получаются в следствии добавления в url адеса страниц различных параметров. К примеру, как известно, Google Analytics при оценке эффективности рекламных компаний образует страницы содержащие в своих url адресах параметры типа utm_campaign и utm_medium.

Предположим, что страницы с параметрами от Google Analytics попали в индекс поисковой системы Яндекса и мы захотели исключить дубли страниц (страниц с параметрами).

Специально для таких целей у robots.txt для Яндекса есть параметр Clean-param, который укажет поисковой системе Яндекса, какие страницы следует игнорировать и не считать уникальными (разными) с каждым меняющимся значением.

Пример использования Clean-param в robots.txt для параметров Google Analytics:

User-agent: Yandex


Clean-param: utm_campaign&utm_medium&utm_source&utm_term

Аналогичным образом с помощью Clean-param в robots.txt «учим» Яндекс игнорировать дубли страниц получившиеся в следствии добавления и изменения различных параметров в url адресах страниц.

P.S. Решили создать бесплатно сайт — помните, создать сайт мало — его нужно поддерживать, развивать и конечно продвигать ;)

Спасибо Вам за добавление статьи "Clean-param для robots.txt Яндекса или удаляем дубли страниц" в:

Добавить в Twitter
Если данная публикация вам понравилась, предлагаю вам подписаться на получение материалов centavrus-opti.ru через RSS ленту, и при желании присоединиться ко мне в Twitter
Рассылка новых публикаций на E-mail

Предлагаю оставить комментарий к записи Clean-param для robots.txt Яндекса или удаляем дубли страниц

Более ранние статьи из раздела