Не соглашусь насчет "индивидуальности", должен быть конкретный свод правил для "голого" движка и правила для платных компонентов, остальное на свой страх и риск, кто что устанавливал. Индивидуально можно подпилить самому, если потребуется.
Очень нужен правильный robots.txt для предотвращения появления дублей во время индексации, и для instantvideo, instantmaps так же. По поводу ivideo нашел подобный вопрос на оф. форуме instantvideo.ru/forum/thread867.html.
Почему в движке не используется тег canonical?
Появление дублей легче предотвратить, нежели удалять их потом из вебмастера. У гугла долгая память и первая оценка сайта роботами может повлиять на всю его дальнейшую судьбу. Вытащить сайт с под фильтров очень трудно.
Сайт смотреть надо по вебмастеру после индексации. Я не зная какие дубли создаются данной cms-кой.Да смотреть сайт надо...
Писать то писали, толком так и не составили.тут в блогах писали как роботс составлять
Если кто видел на двойке сайты с высокой посещаемостью (не видеопорталы), скиньте пожалуйста ссылки в личку. В живую посмотреть хочется на их роботсы и проанализировать на предмет дублей в выдаче.