Файл robots.txt для instantcms 2 с платными компонентами

InstantCMS 2.X
#1 20 декабря 2016 в 16:19
Перелистал весь форум, но вразумительного ответа по поводу файла robots.txt так и не нашел. Либо "все индивидуально и нужно под каждый сайт свой", либо откровенный бред в составлении.

Не соглашусь насчет "индивидуальности", должен быть конкретный свод правил для "голого" движка и правила для платных компонентов, остальное на свой страх и риск, кто что устанавливал. Индивидуально можно подпилить самому, если потребуется.

Очень нужен правильный robots.txt для предотвращения появления дублей во время индексации, и для instantvideo, instantmaps так же. По поводу ivideo нашел подобный вопрос на оф. форуме instantvideo.ru/forum/thread867.html.

Почему в движке не используется тег canonical?

Появление дублей легче предотвратить, нежели удалять их потом из вебмастера. У гугла долгая память и первая оценка сайта роботами может повлиять на всю его дальнейшую судьбу. Вытащить сайт с под фильтров очень трудно.
#2 20 декабря 2016 в 23:26
Друзья, кто-нибудь озадачивался закрытием дублей, покажите примеры своих robots.txt
#3 21 декабря 2016 в 00:20
Да смотреть сайт надо… там нет ничего сложного. тут в блогах писали как роботс составлять
#4 21 декабря 2016 в 01:08

Да смотреть сайт надо...

Jestik
Сайт смотреть надо по вебмастеру после индексации. Я не зная какие дубли создаются данной cms-кой.

тут в блогах писали как роботс составлять

Jestik
Писать то писали, толком так и не составили.

Если кто видел на двойке сайты с высокой посещаемостью (не видеопорталы), скиньте пожалуйста ссылки в личку. В живую посмотреть хочется на их роботсы и проанализировать на предмет дублей в выдаче.
Вы не можете отвечать в этой теме.
Войдите или зарегистрируйтесь, чтобы писать на форуме.

Похожие темы

[ЗАКРЫТО] Не создаётся sitemap.xml

Компоненты Создана 2 года назад 1 сообщение

Вопрос по robots.txt

SEO & PR Создана 4 года назад 7 сообщений

robots.txt

SEO & PR Создана 4 года назад 7 сообщений

Используя этот сайт, вы соглашаетесь с тем, что мы используем файлы cookie.