директивы Allow и Disallow

#1 10 марта 2012 в 18:29
Уведомление от яши)
9.03.2012
Новые правила обработки директив Allow и Disallow в файлах robots.txt

"Уведомляем вас об изменениях в обработке директивы 'Allow' файла robots.txt, с помощью которого вы можете разрешить или запретить индексирование сайта поисковым роботом Яндекса.
По новым правилам, если страница сайта попадает под действие нескольких директив 'Allow' и/или 'Disallow', то будет применяться директива с наибольшей длиной префикса URL. При определении длины префикса спецсимвол '*' не учитывается.
Если на вашем сайте в robots.txt совместно используются директивы 'Allow' и 'Disallow', пожалуйста, проверьте их на соответствие новым стандартам.
"
#2 11 марта 2012 в 11:52
Как сейчас должен выглядеть robots.txt?
#3 11 марта 2012 в 12:23

Как сейчас должен выглядеть robots.txt?

Rossoman
Как и раньше, без Allow, так как данная директива используется в крайнем случае и если у вас раньше использовалась, то тут общие виды роботса не помогут, нужно конкретно под вас его составлять, а если не использовалась, то просто пропустите данную новость
Вы не можете отвечать в этой теме.
Войдите или зарегистрируйтесь, чтобы писать на форуме.
Используя этот сайт, вы соглашаетесь с тем, что мы используем файлы cookie.