Инфо тема: - Яндекс, Неканонические страницы в Поиске

Яндекс будет учитывать содержимое не канононических страниц

 
Посетитель
small user social cms
МедальПочетный донор проектаАвторитет форумаКубок зрительских симпатийПочетный донор проекта
Сообщений: 1714
Всем доброго дня.
Яндекс теперь будет учитывать содержимое неканонических страниц и иногда выдавать их в поиске.

https://webmaster.yandex.ru/blog/nekanonicheskie-stranitsy-v-poiske

Коротко

ЗЫ
Посетитель
small user social cms
Сообщений: 63
Rainbow:
Постараюсь иногда создавать подобные темы для информации, а то заметил, что как то иногда отстаем от времени)). Не знаю насколько меня хватит, поэтому особо зарекаться не буду....)
Rainbow, прошу прощения, а зачем? Тем кому это интересно могут сразу подписаться на новости официальных блогов Яндекса и Гугла, а также на новости searchengines.ru или seonews.ru или ещё где-то, сейчас нет дефицита в информации, скорее даже переизбыток...
Логичнее мне кажется обсуждать проблемы связанные именно с SEO InstantCMS, тем более что такие ещё имеются.
Из последнего, что обнаружил, к примеру, Гугл берет в индекс страницы такого типа:
Код PHP:
  1. /comments/get
  2. /comments/track
  3. /comments/refresh
  4. /comments/rate
  5. /comments/delete
  6. /comments/approve
и игнорирует запрет в роботсе
наблюдаю такое уже на 3ем сайте
Редактировалось: 1 раз (Последний: 19 июля 2019 в 10:13)
Реклама
cms
Посетитель
small user social cms
МедальПочетный донор проектаАвторитет форумаКубок зрительских симпатийПочетный донор проекта
Сообщений: 1714
Timmy:
прошу прощения, а зачем?

Может и не зачем... если народ будет против, больше не буду)).
Хотя я написал зачем....

Timmy:
Из последнего, что обнаружил, к примеру, Гугл берет в индекс страницы такого типа:

Если берет не как дубликаты, почему бы и нет?
А запрет в роботся Гугл с самого начала писал что на усмотрение поисковика...

https://support.google.com/webmasters/answer/6062608?hl=ru


Этот файл не предназначен для того, чтобы запрещать показ веб-страниц в результатах поиска Google. Если вы не хотите, чтобы какие-либо материалы с вашего сайта были представлены в Google, применяйте директивы noindex. Также вы можете создать на сайте разделы, защищенные паролем
Посетитель
small user social cms
Сообщений: 577
Rainbow:
Яндекс теперь будет учитывать содержимое неканонических страниц и иногда выдавать их в поиске.

Раньше всегда только яндекс.поиском пользовался.
Гугл никогда не выдавал нужной информации заваливая выдачу хламом...

теперь, по узкоспецифическим темам - яндекс. начал выдавать хлам
причем хлам неинформативный - в стиле "налеплю 10500 слов в одной статье и прокатит"...

особенно ощутил это, когда начал сам собирать по теме (в которой у меня образование)
такого начитался... так все перепутано и не сгруппировано...

По-этому, наверно это и хорошо, что яндекс расширяет границы выдачи ...
Посетитель
small user social cms
Сообщений: 577
Rainbow:
noindex

это тоже не работает.
поисковик все равно индексирует сайт

если нужно, чтобы какая-то информация не была в индексе - нужно запрещать доступ гуглу по ip =)
благо сам гугл дает список этих ip =)
Посетитель
small user social cms
Сообщений: 577
Timmy:
наблюдаю такое уже на 3ем сайте

я наблюдаю такое только на instantcms 2
по-этому и создавал тему про роботс.тхт

может запрещать нужно в header страницы к которой не нужен доступ?
Посетитель
small user social cms
МедальПочетный донор проекта
Сообщений: 349
@iKrym:
Гугл никогда не выдавал нужной информации заваливая выдачу хламом...
Давно-давно нормально было, а теперь (несколько лет уже) ага - куча мусора на первых двадцати-тридцати позициях. Сейчас пользуюсь им 4 раза в месяц.

@iKrym:
теперь, по узкоспецифическим темам - яндекс. начал выдавать хлам
причем хлам неинформативный - в стиле "налеплю 10500 слов в одной статье и прокатит"...
Тут тоже согласен. Раньше гуглу до яндекса (#яндекс) далеко было. Теперь такая лажа в статьях на первых позициях. Тупо собрано 3-5 статей в одну. И скатерть текста из смеси этих статей, все вперемешку. Дезинформация жутчайшая. Причем там "авторы" скорее сами даже не догадываются, что в статьях все напутано.

Timmy:
Тем кому это интересно могут сразу подписаться на новости официальных блогов Яндекса и Гугла
В тех блогах куча хлама ненужного. А тут человек порылся в этом мусоре и выложил важное) Удобно.
Посетитель
small user social cms
МедальКубок зрительских симпатийАвторитет форума
Сообщений: 1897
@iKrym:
может запрещать нужно в header страницы к которой не нужен доступ?
Суть в том, что развитием ИИ, поисковики все больше(разработчики) полагаются на его мудрость или свою мудрость при написании алгоритмов.
Для гугла роботс был и так с очень слабым приоритетом, теперь он стремится к нулю.
Вот у этого приоритет выше
<meta name="robots" content="noindex, nofollow"/>
<meta name="robots" content="none"/>
<meta name="googlebot" content="noindex, nofollow"/>
<meta name="yandex" content="none"/>
А запрещать по IP не вариант, бот стукнется в явный запрет на посещение и в итоге частота обходов в разы упадет. Да и штука в том, что он сканит не в один поток и не с одного сервиса за раз. А уйдут все боты, если один воткнется в запрет доступа к серверу.
Можно на определенных страницах отдавать ботам пс 404, это тоже хороший метод и он точно выкинет из индекса нежелательное. Но из панелей пойдут письма - увеличилось количество 404, проверьте сайт...бла бла, можно игнорить))
Контент для ваших проектов. Копирайт всех видов от профессионалов. Создание и продвижение сайтов, реклама.
Посетитель
small user social cms
МедальПочетный донор проектаАвторитет форумаКубок зрительских симпатийПочетный донор проекта
Сообщений: 1714
Собственно если правильно понимаю, все это сводится к одному...(о чем собственно сами ПСы заявляли)
ПСы выдают не то что пользователи ищут, а то что ПСы "думают" что пользователи ищут.
Посетитель
small user social cms
Сообщений: 63
даже не проверили страницы, а стали писать про ноуидекс)
эти страницы отдают 404 или 503, но при этом есть в индексе. вот такой вот парадокс.
страницы эти бот видит потому в исходном коде страницы (если включены комментарии) есть такой кусок
Код PHP:
  1. <div id="comments_urls" style="display: none" data-get-url="/comments/get" data-approve-url="/comments/approve" data-delete-url="/comments/delete" data-refresh-url="/comments/refresh" data-track-url="/comments/track" data-rate-url="/comments/rate"></div>
в целом это не критично, так просто наблюдением поделился.
произошло все это после того как гугл обновил версию хромиума, которую использует для рендеринга
Посетитель
small user social cms
МедальПочетный донор проектаАвторитет форумаКубок зрительских симпатийПочетный донор проекта
Сообщений: 1714
Timmy:
даже не проверили страницы, а стали писать про ноуидекс)

shock Думаете у каждого есть сайт с комментами проиндексированными Гуглом?
У меня комментов нет. Написал наиболее логичную причину.

Timmy:
так просто наблюдением поделился.

Странный у Вас способ "делится"... с подковыркой....
Редактировалось: 2 раз (Последний: 20 июля 2019 в 18:50)
В начало страницы
Предыдущая темаСледующая тема Перейти на форум:
Быстрый ответ
Чтобы писать на форуме, зарегистрируйтесь или авторизуйтесь.