Инфо тема: - Яндекс, Неканонические страницы в Поиске

Яндекс будет учитывать содержимое не канононических страниц

#1 18 июля 2019 в 18:09
Всем доброго дня.
Яндекс теперь будет учитывать содержимое неканонических страниц и иногда выдавать их в поиске.

webmaster.yandex.ru/blog/nekanonicheskie-stranitsy-v-poiske



Наши исследования показывают, что страницы, размеченные как неканонические могут быть полезны, а их наличие в поиске может влиять на качество и полноту ответа на запрос пользователя. Например, если для темы форума владелец сайта указал канонической страницу с началом ветки, то многие важные и нужные ответы, которые были даны пользователями позже, в поиск не попадают. Другой пример: бывает, что какое-то литературное произведение разбито на страницы и в качестве канонической прописана первая страница. В результате сайт не находится по запросу-цитате, соответствующей тексту за пределами первой странице. Поэтому теперь в поиске неканонические страницы будут появляться чаще.

Они будут показаны в том случае, если они более релевантны запросу и их контент существенно отличался от канонической версии во время сканирования роботом. В Вебмастере такие страницы можно увидеть на странице «Страницы в поиске» с пометкой «Неканоническая». Помимо этого статуса мы начали показывать статусы «Каноническая» и «Каноническая страница не указана» для всех страниц, попавших в поиск.



Постараюсь иногда создавать подобные темы для информации, а то заметил, что как то иногда отстаем от времени)).
Не знаю насколько меня хватит, поэтому особо зарекаться не буду....)
#2 19 июля 2019 в 10:12

Постараюсь иногда создавать подобные темы для информации, а то заметил, что как то иногда отстаем от времени)). Не знаю насколько меня хватит, поэтому особо зарекаться не буду....)

Rainbow
Rainbow, прошу прощения, а зачем? Тем кому это интересно могут сразу подписаться на новости официальных блогов Яндекса и Гугла, а также на новости searchengines.ru или seonews.ru или ещё где-то, сейчас нет дефицита в информации, скорее даже переизбыток...
Логичнее мне кажется обсуждать проблемы связанные именно с SEO InstantCMS, тем более что такие ещё имеются.
Из последнего, что обнаружил, к примеру, Гугл берет в индекс страницы такого типа:
  1. /comments/get
  2. /comments/track
  3. /comments/refresh
  4. /comments/rate
  5. /comments/delete
  6. /comments/approve
и игнорирует запрет в роботсе
наблюдаю такое уже на 3ем сайте
#3 19 июля 2019 в 10:45

прошу прощения, а зачем?

Timmy

Может и не зачем… если народ будет против, больше не буду)).
Хотя я написал зачем....

Из последнего, что обнаружил, к примеру, Гугл берет в индекс страницы такого типа:

Timmy

Если берет не как дубликаты, почему бы и нет?
А запрет в роботся Гугл с самого начала писал что на усмотрение поисковика...

support.google.com/webmasters/answer/6062608?hl=ru


Этот файл не предназначен для того, чтобы запрещать показ веб-страниц в результатах поиска Google. Если вы не хотите, чтобы какие-либо материалы с вашего сайта были представлены в Google, применяйте директивы noindex. Также вы можете создать на сайте разделы, защищенные паролем

#4 19 июля 2019 в 11:45

Яндекс теперь будет учитывать содержимое неканонических страниц и иногда выдавать их в поиске.

Rainbow

Раньше всегда только яндекс.поиском пользовался.
Гугл никогда не выдавал нужной информации заваливая выдачу хламом…

теперь, по узкоспецифическим темам — яндекс. начал выдавать хлам
причем хлам неинформативный — в стиле "налеплю 10500 слов в одной статье и прокатит"…

особенно ощутил это, когда начал сам собирать по теме (в которой у меня образование)
такого начитался… так все перепутано и не сгруппировано…

По-этому, наверно это и хорошо, что яндекс расширяет границы выдачи…
#5 19 июля 2019 в 11:46

noindex

Rainbow

это тоже не работает.
поисковик все равно индексирует сайт

если нужно, чтобы какая-то информация не была в индексе — нужно запрещать доступ гуглу по ip =)
благо сам гугл дает список этих ip =)
#6 19 июля 2019 в 11:49

наблюдаю такое уже на 3ем сайте

Timmy

я наблюдаю такое только на instantcms 2
по-этому и создавал тему про роботс.тхт

может запрещать нужно в header страницы к которой не нужен доступ?
#7 19 июля 2019 в 19:18

Гугл никогда не выдавал нужной информации заваливая выдачу хламом…

@iKrym
Давно-давно нормально было, а теперь (несколько лет уже) ага — куча мусора на первых двадцати-тридцати позициях. Сейчас пользуюсь им 4 раза в месяц.

теперь, по узкоспецифическим темам — яндекс. начал выдавать хлам
причем хлам неинформативный — в стиле "налеплю 10500 слов в одной статье и прокатит"…

@iKrym
Тут тоже согласен. Раньше гуглу до яндекса (#яндекс) далеко было. Теперь такая лажа в статьях на первых позициях. Тупо собрано 3-5 статей в одну. И скатерть текста из смеси этих статей, все вперемешку. Дезинформация жутчайшая. Причем там "авторы" скорее сами даже не догадываются, что в статьях все напутано.

Тем кому это интересно могут сразу подписаться на новости официальных блогов Яндекса и Гугла

Timmy
В тех блогах куча хлама ненужного. А тут человек порылся в этом мусоре и выложил важное) Удобно.
#8 19 июля 2019 в 19:51

может запрещать нужно в header страницы к которой не нужен доступ?

@iKrym
Суть в том, что развитием ИИ, поисковики все больше(разработчики) полагаются на его мудрость или свою мудрость при написании алгоритмов.
Для гугла роботс был и так с очень слабым приоритетом, теперь он стремится к нулю.
Вот у этого приоритет выше
<meta name="robots" content="noindex, nofollow"/>
<meta name="robots" content="none"/>
<meta name="googlebot" content="noindex, nofollow"/>
<meta name="yandex" content="none"/>
А запрещать по IP не вариант, бот стукнется в явный запрет на посещение и в итоге частота обходов в разы упадет. Да и штука в том, что он сканит не в один поток и не с одного сервиса за раз. А уйдут все боты, если один воткнется в запрет доступа к серверу.
Можно на определенных страницах отдавать ботам пс 404, это тоже хороший метод и он точно выкинет из индекса нежелательное. Но из панелей пойдут письма — увеличилось количество 404, проверьте сайт… бла бла, можно игнорить))
#9 19 июля 2019 в 20:47
Собственно если правильно понимаю, все это сводится к одному...(о чем собственно сами ПСы заявляли)
ПСы выдают не то что пользователи ищут, а то что ПСы "думают" что пользователи ищут.
#10 20 июля 2019 в 17:08
даже не проверили страницы, а стали писать про ноуидекс)
эти страницы отдают 404 или 503, но при этом есть в индексе. вот такой вот парадокс.
страницы эти бот видит потому в исходном коде страницы (если включены комментарии) есть такой кусок
  1. <div id="comments_urls" style="display: none" data-get-url="/comments/get" data-approve-url="/comments/approve" data-delete-url="/comments/delete" data-refresh-url="/comments/refresh" data-track-url="/comments/track" data-rate-url="/comments/rate"></div>
в целом это не критично, так просто наблюдением поделился.
произошло все это после того как гугл обновил версию хромиума, которую использует для рендеринга
#11 20 июля 2019 в 18:49

даже не проверили страницы, а стали писать про ноуидекс)

Timmy

shockДумаете у каждого есть сайт с комментами проиндексированными Гуглом?
У меня комментов нет. Написал наиболее логичную причину.

так просто наблюдением поделился.

Timmy

Странный у Вас способ "делится"… с подковыркой…
Вы не можете отвечать в этой теме.
Войдите или зарегистрируйтесь, чтобы писать на форуме.
Используя этот сайт, вы соглашаетесь с тем, что мы используем файлы cookie.