Недоработка УК - поисковый спам

#18 11 августа 2012 в 15:07

FreeLancer, там предложено дубли закрыть в robots.txt, по сути, не проблема — но это не решение по 2 причинам:
1. тот синтаксис с * и? на серче очень давно ругают
2. он скроет всю разбивку по страницам, начиная с первой — лично у меня это уникальные страницы и их много. Закрыть их значит потерять часть веса. Не хочу...

Евгений Фоменко
я не про решение, я про то что писал там про проблему… вообще правильнее закрывать такое проверкой в фронтенде, если на странице нет материалов, то выводить 404 ошибку
#19 11 августа 2012 в 15:41
FreeLancer, googlebot умеет, но он для статей сделал = УК как я понял никто не делал…
#20 11 августа 2012 в 18:03

FreeLancer, googlebot умеет, но он для статей сделал = УК как я понял никто не делал...

Евгений Фоменко
Ну в среду вернусь с коммандировки, постараюсь сделать :)
#21 11 августа 2012 в 18:12


Ну в среду вернусь с коммандировки, постараюсь сделать :)

FreeLancer

Было бы круто очень!
Вы не можете отвечать в этой теме.
Войдите или зарегистрируйтесь, чтобы писать на форуме.
Используя этот сайт, вы соглашаетесь с тем, что мы используем файлы cookie.