Пагинация - убирать из индекса или нет ?

Повторяющееся метаописание на страницах

#1 5 марта 2012 в 12:18
Зашел в панель вебмастера на гугле посмотрел "Предложения по ХТМЛ" — "Повторяющееся метаописание" И увидел следующую картину:
/maps/avto/page-1
/maps/avto/page-2
/maps/avto/page-3
/maps/avto/page-4
/maps/avto/page-5
в данных страницах повторяющееся метоописание. Вопрос
1)Стоит ли закрывать данные страницы от индексации
2)Если на 1 вопрос ответ положительный, то как Вы справляетесь с данной проблемой

p.s. Почему написал убирать или нет, возможно есть способ дописывать или изменять метоописание к страницам
#2 5 марта 2012 в 13:49
У меня карты нет, но понимаю что это не целевые страницы?
если так, то и смысла в них нет — закрывайте в роботсе.
Причина закрытия как минимум снижение нагрузки при сканировании ненужных страниц…
#3 5 марта 2012 в 13:52
Описание одно, а содержание страниц ведь разное?
Я не убираю и не буду.
#4 5 марта 2012 в 13:56

У меня карты нет, но понимаю что это не целевые страницы?

pivua)
Такая проблема и статьях(при наличии в тексте нескольких страниц)
Пока нашел только такой вариант
  1. Disallow: */page-*
но не думаю что он правильный
#5 5 марта 2012 в 14:17

Пока нашел только такой вариант

malanas
правильно — через время в вебмасере увидите что эти страницы запрещены к индексированию.
чем меньше не целевых страниц тем лучше! они служат только как удобство навигации для пользователей чтобы они находили целевые страницы!) а в выдаче нужны именно целевые — от них толка больше)

Я не убираю и не буду.

Евгений Фоменко
Это практически тот же вопрос что и с поиском по тегам — многие оставляют а многие закрывают…
#6 5 марта 2012 в 14:28


чем меньше не целевых страниц тем лучше!

pivua)

Тут не соглашусь с Вами — чем больше "нецелевых" (как Вы их назвали) страниц ссылается на целевую, тем больше у нее веса! А если Вы все позакрываете, то она вообще в выдаче будет сзади )) Ну если не продвигать "насильно" сапами и прочим.
#7 5 марта 2012 в 14:29


Причина закрытия как минимум снижение нагрузки при сканировании ненужных страниц....

pivua)

Нагрузку вы не снизите, потому что эти документы все равно выкачиваются, просто их в индекс не добавляют.
Хотя могу ошибаться = предположил так по своей статистике.
#8 5 марта 2012 в 15:37

Тут не соглашусь с Вами — чем больше "нецелевых" (как Вы их назвали) страниц ссылается на целевую, тем больше у нее веса!

Евгений Фоменко
ну перелинковку можно и по эффективней делать — контекстную! что даст больший эффект!
#9 5 марта 2012 в 15:50
С закрытием от индексации это не вариант
Нужно сделать так
поле Title "Название — Страница 2" (в картах реализовано)
поле description — "Описание — Страница 2"
Остается вопрос по полю keywords ???
Покопался в файле page.class результатов 0.
#10 5 марта 2012 в 15:55

С закрытием от индексации это не вариант

malanas
раз не вариант то и название темы не уместно!
а дубли не уникальных кусков контента, это не есть гуд, как не крути, имхо.
#11 5 марта 2012 в 16:21

а дубли не уникальных кусков контента, это не есть гуд, как не крути, имхо.

pivua)
Не уникальные получаются только Title,description,keywords(это исправимо), остальной контент уникальный.
Заказал доработку у Максима(Maxisoft). Если он будет не против, как сделает выложу.
#12 5 марта 2012 в 16:29

остальной контент уникальный.

malanas
значит я не совсем правильно понял(
Если уникальный — то страницы целевые и полезны, такие конечно нужно оставлять в индексе.
зы: просто у меня на всех page-* дубли контента, подумал что у всех так)
Вы не можете отвечать в этой теме.
Войдите или зарегистрируйтесь, чтобы писать на форуме.
Используя этот сайт, вы соглашаетесь с тем, что мы используем файлы cookie.