Уведомление от яши)
9.03.2012
Новые правила обработки директив Allow и Disallow в файлах robots.txt
"Уведомляем вас об изменениях в обработке директивы 'Allow' файла robots.txt, с помощью которого вы можете разрешить или запретить индексирование сайта поисковым роботом Яндекса.
По новым правилам, если страница сайта попадает под действие нескольких директив 'Allow' и/или 'Disallow', то будет применяться директива с наибольшей длиной префикса URL. При определении длины префикса спецсимвол '*' не учитывается.
Если на вашем сайте в robots.txt совместно используются директивы 'Allow' и 'Disallow', пожалуйста, проверьте их на соответствие новым стандартам."
#1
10 марта 2012 в 18:29
#2
11 марта 2012 в 11:52
Как сейчас должен выглядеть robots.txt?
#3
11 марта 2012 в 12:23
Как и раньше, без Allow, так как данная директива используется в крайнем случае и если у вас раньше использовалась, то тут общие виды роботса не помогут, нужно конкретно под вас его составлять, а если не использовалась, то просто пропустите данную новостьКак сейчас должен выглядеть robots.txt?