Дубли страниц

#16 30 ноября 2011 в 22:36
picaboo, спасибо!
А все-таки
Disallow /forum/thread*-1.html
или
Disallow: */forum/thread*-quote*.html
Надо?

Подобная проблема есть во многих компонентах: блоги, клубы, доска объявлений, каталог, faq, фото...

Max

Песимизация Яндекса за дубли — да? Или нет?
#17 30 ноября 2011 в 22:50

Песимизация Яндекса за дубли — да? Или нет?

Lana

столько лет жили и тут на тебе😊не будет, поисковик выберет более релевантную на его взгляд страницу из этих двух, вторая станет дублем и уйдет из поиска. её можно конечно запретить, но лучше сделать редирект, потому что пользователи будут на других сайтах давать ссылки на тему и те и те. зачем терять лишнюю ссылку на себя при запрете? лучше поймать её редиректом и перенести вес на правильную :)

а вообще надо подождать ответа администраторов, тему они видели и если рецепта не будет, то выкручиваться самим.
#18 30 ноября 2011 в 23:31

Песимизация Яндекса за дубли — да? Или нет?

Lana
Это ко мне вопрос? Я тут вряд ли могу быть экспертом… Сам слышал разные мнения на этот счет.
#19 1 декабря 2011 в 00:14

Это ко мне вопрос?

Max
Я просто процитировала, что есть аналогичная проблемма — в блоги, клубы, доска объявлений, каталог, faq, фото.
За ответ спасибо smile
#20 1 декабря 2011 в 02:05


Песимизация Яндекса за дубли — да? Или нет?

Lana

столько лет жили и тут на тебе😊не будет, поисковик выберет более релевантную на его взгляд страницу из этих двух, вторая станет дублем и уйдет из поиска. её можно конечно запретить, но лучше сделать редирект, потому что пользователи будут на других сайтах давать ссылки на тему и те и те. зачем терять лишнюю ссылку на себя при запрете? лучше поймать её редиректом и перенести вес на правильную :)

а вообще надо подождать ответа администраторов, тему они видели и если рецепта не будет, то выкручиваться самим.

picaboo

Если я тебе дам 5 сайтов которые имеют в выдаче по 5 одинаковых страниц из серии
index.php
index.html
index.php?date
index.ph?catalog

(страницы абсолютно одинаковые)
и в выдаче они весят больше года — ты обешаешь что больше никогда не будешь тут писать про сео? я понимаю что для тебя сео это лженаука… но все же задалбывает читать откровенный бред.


Что касается вопроса ланы — нет пессемизации за дубли на сайте не будет. Это все же не плагиат, но дубли опасны следующим

1. Куча бесполезных страниц в выдаче, в итоге оочень сильно замедляет индексацию
2. Теряется вес ибо идет между дублями
3. Теряется траст страницы.

Этого достаточно чтобы потерять кучу позиций…
#21 1 декабря 2011 в 02:13
На работе случай был буквально в пятницу. Один сайт с не очень умным начальством начали вводить ЧПУ по нашей тзшке. но не подумали в итоге ссылки имели вид
/123-dubli-ne-meshayut-saitu/
мы через какое то время когда начали писать доработки, а точнее проверяли тексты на уникальность через text.ru, ну и увидили что страниц дублей выдало 30 штук. попадали ссылки /123-абсолютно-любой-бред/, мы написали тзшку на редирект по id, но через пару дней яндекс обновил выдачу и 5000 страниц выкинул из индекса. все бы ничего. но вместе с дублями он выкинул пару десятков продвигаемых старниц с хорошими позициями. в итоге заканчик попал на пару сотен тысяч. А мы окупили поездку на оптимизейшен




И все бы могло решится нормально, но клиент оказался как пикабу, он до сих пор не верит что дубли могут влиять на индексацию
#22 1 декабря 2011 в 09:45


и в выдаче они весят больше года — ты обешаешь что больше никогда не будешь тут писать про сео? я понимаю что для тебя сео это лженаука… но все же задалбывает читать откровенный бред.

NickSolver

а я где то написал что они вылетят? наоборот я написал что можно забить на это, так как дубли сами уйдут. другое дело что не угадаешь какая из страниц окажется дублем.

и да,

/123-dubli-ne-meshayut-saitu/

NickSolver

очередной раз доказываем всем какие мы профи? сайтег на дле?😊 мега контора не могла сделать пару редиректов? тупо взяли с клиента бабок с умным лицом за свой косяк?

все и так все поняли про тебя, тебе уже не один человек это объяснял :)

и хватит оффтопить, тема о другом

ЗЫ. и таки да. сео это лже наука, ибо нет науки обманывать людей :)
#23 1 декабря 2011 в 10:09

очередной раз доказываем всем какие мы профи? сайтег на дле? smile мега контора не могла сделать пару редиректов? тупо взяли с клиента бабок с умным лицом за свой косяк?

все и так все поняли про тебя, тебе уже не один человек это объяснял :)

и хватит оффтопить, тема о другом

ЗЫ. и таки да. сео это лже наука, ибо нет науки обманывать людей :)

picaboo

Нет сайтик не на ДЛЕ — сайтик самописный… Если вы в чем то не разбираетесь еще раз говорю не стоит об этом писать. Клиенты в 90% случаев не дают доступа к сайтами и все доработки проходят путем долгого их соглосования. Конечно сео нет это фантастика. Мы сидим тысячи на слетах оптимизаторов и друг другу несем всякую хрень… RiW и Optimization тому подтверждение...

Иногда люди чтоб в что-то не верить начинают отрицать очевидной. Флаг вам в руки...


а я где то написал что они вылетят? наоборот я написал что можно забить на это, так как дубли сами уйдут. другое дело что не угадаешь какая из страниц окажется дублем.

picaboo
Еще раз повторяю если я даю вам 5 сайтов имеющих по 5 дублей 1 страницы которые в выдаче год, а то и больше — вы признаетесь что не понимаете в сео ничего и больше никогда не будете поднимать эту тему? Дубли сами уйдут или когда сайт попадет по какой то причине под фильтр и начнется писсимизация. или произойдет явная склейка. (5-10% таких дублей от силы склеиваются, причем пес дублей яндекс не клиент он выбирает по его мнению более релевантную страницу, в большинстве случае это страница с меньшим весом). или же когда он тысяч 10000 страниц наберет и половину выкинет из индекса… чего ждать то будете уважаемый? Может вы не будете пытаться гуру из себя делать? А если отрицаете существование сео, вы хоть иногда webmaster.ya.ru читайте… там уж вас точно яндекс обманывать не будет…
#24 1 декабря 2011 в 10:29
Для тех, кто считает, что на дубли можно забивать...
help.yandex.ru/webmaster/?id=1108946 ( пункт 3 и в довесок пункт 4 )
help.yandex.ru/webmaster/?id=1108949 ( Каждая страница должна быть доступна по единственному и постоянному адресу. )
Самые элементарные вещи, которые проверяются при первичном аудите перед продвижением, любые дубли текста должны быть либо закрыты от индексации либо сделан корректный 301 редирект.
#25 1 декабря 2011 в 10:31
+100500, но эти люди не верят в сео… я для них дебил который считает что теги могут влиять на ранжирование, а сео нет это обман людей
#26 1 декабря 2011 в 11:21

Для тех, кто считает, что на дубли можно забивать...

Tempest

ну вот не надо сравнивать ситуацию когда дубли создаются по глупости и когда дубли, это неизбежное зло в виде неправильной работы cms. давай к этому еще вспомним категории которые доступны по адресу со слешем и без слеша на конце, страницы для печати и тд. дублей в разы больше чем мы о них можем подозревать. если взять любой форумный движок, к примеру smf — то там вообще начинается ахтунг, когда один и тот же контент доступен почти по десятку адресов. с этим можно бороться закрывая роботсом дубли, но поскольку, ссылочное терять умный человек не будет, то делается корректный 301 редирект.

Гугл, в отличии от яндекса, эту проблему воспринимает более серьезно и специально для исключения дублей, ввел канонические страницы. чтобы вебмастер мог ему явно указать что вот эта страница — это первоисточник контента, а остальные дубли.

NickSolver, можно я на вашу ахинею не буду отвечать? просто споря с

я для них дебил который считает что...

NickSolver
чувствую что начинаю уподоблятся. заразное это чтоли :)


Самые элементарные вещи, которые проверяются при первичном аудите перед продвижением, любые дубли текста должны быть либо закрыты от индексации либо сделан корректный 301 редирект.

Tempest

ага, вот только некоторые, не буду показывать кто, разводит людей за свои косяки на пару сотен тысяч, потому что первоначально аудита не делали и продвигали дубли, которые вылетели :)
#27 1 декабря 2011 в 12:10

ну вот не надо сравнивать ситуацию когда дубли создаются по глупости и когда дубли, это неизбежное зло в виде неправильной работы cms. давай к этому еще вспомним категории которые доступны по адресу со слешем и без слеша на конце, страницы для печати и тд. дублей в разы больше чем мы о них можем подозревать. если взять любой форумный движок, к примеру smf — то там вообще начинается ахтунг, когда один и тот же контент доступен почти по десятку адресов. с этим можно бороться закрывая роботсом дубли, но поскольку, ссылочное терять умный человек не будет, то делается корректный 301 редирект.

picaboo

в 99.9% процентов случаев любой дубль эта глупость. Есть файл robots.txt, и если можно составить хотя бы какую то регулярную маску можно закрыть любые дубли.



Гугл, в отличии от яндекса, эту проблему воспринимает более серьезно и специально для исключения дублей, ввел канонические страницы. чтобы вебмастер мог ему явно указать что вот эта страница — это первоисточник контента, а остальные дубли.

picaboo

Очередной бред. Яндекс тоже давно ввел каноникл (http://webmaster.ya.ru/replies.xml?item_no=10371) система будет адаптироваться лет 5 пока матрикснет научится с ней нормально работать. В гугле думаю тоже не меньше. Иновационности никакой. ПС активно кладут на этот тег. Отчасти конечно он полезен. Действительно убирает часть ненужных старниц из выдаче, да вот только незадачка. поисковик имеет для каждого сайта количество страниц которое он может на нем придти и загрузить. И если у сайта нет быстро бота.а на нем скажем 1000 страниц — то страничка может попадать в индекс месяцами. У меня был сайт на дле еще до того как я начал постигать сео у него было 9000 страниц. после закрытия всех ненужных осталось 1000. В итоге сайт обновляется в 20 раз быстрее и каждую выдачу я вижу динамику..


ага, вот только некоторые, не буду показывать кто, разводит людей за свои косяки на пару сотен тысяч, потому что первоначально аудита не делали и продвигали дубли, которые вылетели :)

picaboo

Что читать вы не научились это понятно, но вы хоть не додумывайте…
#28 1 декабря 2011 в 16:30

вспомним категории которые доступны по адресу со слешем и без слеша

picaboo
Для этого есть простое правило, которое прописывается в htaccess, и это тоже надо сразу находить и исправлять, а не говорить о том, что это:

это неизбежное зло в виде неправильной работы cms

picaboo
Практически любые ошибки и недочеты исправляются если ими заниматься.
Вы не можете отвечать в этой теме.
Войдите или зарегистрируйтесь, чтобы писать на форуме.
Используя этот сайт, вы соглашаетесь с тем, что мы используем файлы cookie.