закрыть от индексации
Два решения —
1. закрыть через htaccess
2. прописать canonical
PS их лучше совместно использовать
Пока никаких😊Так как сайт на момент разработки полностью закрыл от индексации. Но знаю не по наслышке, что от дублей лучше избавиться сразу, до их попадания в индекс поисковиков. Поэтому и решил уточнить.Dizels, а какие у вас есть дубли страниц?
Сложно пытаться закрыть то, чего нет и непонятно будет ли вообще.
Canonical сделайте и даже если будут дубли — поисковики их склеят
А можно подробнее что это и как сделать?Canonical сделайте и даже если будут дубли — поисковики их склеят
Дабы не плодить кучу тем дублей, решил написать здесь.
Вопрос таков.
Является ли дублем страницы сортировки?
Например, Новые — Сначала дешевые — Сначала дорогие.
Каждая имеет адреса (на примере доски) — board- board-cheap — board-expensive
Имеет разный урл но контент одинаковый.
По идеи это дубль.
Кто что может подсказать по этому поводу?
А как правильно закрыть от индексации?
...
Disallow: /board-cheap
Disallow: /board-expensive
Так?
User-agent: *
Disallow: /board-cheap
Disallow: /board-expensive
Вот так правильно?
Или вот так:
Disallow: /board-cheap*
Disallow: /board-expensive*
Просто у меня в роботсе нет звездочек в конце записей типа:
User-agent: *
Disallow: /admin
Disallow: /auth
Disallow: /cache
Disallow: /system
Disallow: /templates
...
Вот такие записи)
Откройте ваш robots.txt
и после
Disallow: /system
добавьте:
Disallow: /board-cheap/
Disallow: /board-expensive/
В точности как я указал, со слэшами в конце.
Но лучше конечно на js делать сортировки такие
А слешь указывает на то, что имеются записи после?