
Добавлен собственный API для автоматического добавления ссылок в очередь при публикации новых материалов на других ваших сайтах. И другое по мелочи.
Работает это примерно так: на вашем другом сайте (например, на другом движке) публикуется новая страница, в этот момент может быть отправлен post-запрос на специальный url индексатора. Перед началом работы необходимо добавить API ключ на странице опций во вкладке API.
С каждым запросом необходимо передавать следующие параметры:
- key (ключ): cbbfe790018881f187913a43484406a7
- queue (очередь): google или indexnow
- type (тип запроса для Google Indexing API, можно передать пустое значение, если очередь IndexNow): URL_UPDATED или URL_DELETED
- urls — массив ссылок, преобразованный в json
Пример запроса:
$urls = [ 'https://yandex.ru', 'https://google.com' ]; $request = [ 'key' => 'cbbfesfh7isuslefhle3a43484406a7', 'type' => 'URL_UPDATED', 'queue' => 'google' ];
После отправки запроса возвращается ответ в формате JSON:
- 404 (Invalid key): некорректный ключ
- 422 (Invalid url): некорректная ссылка
- 200 (Complete): выполнено успешно, ссылки добавлены в очередь
Также в обновлении другие мелочи. Например, возможность удалить из очереди ссылки, содержащие какую-то фразу. Кнопка компонента в левой колонке в админке (добавлена хуком, не бойтесь). Список привязанных сайтов на страницах очереди, истории, ключей и добавления ссылок. И другая мелочевка.
В планах (которые постоянно меняются) написать компонент, который будет отправлять эти запросы. Например, у вас индексатор в одном месте, а все ваши другие сайты на инстанте шлют ему ссылки. Но не уверен, что это нужно.
Здорово, что вы так маньячите над одним компонентом! Это реально ценно и вызывает повышенное доверие !!!
Хочу предупредить всех, использующих Instant Indexing о возникающих проблемах с ранжированием таких страниц. В индексе они нормально существуют, но трафик пропадает в течение нескольких недель после попадания.
Писал об этом тут — t.me/seorigin/36
И подтверждение гипотезы — t.me/seorigin/37
Может это касается эвергрина, не проверял. Но в целом это не так. Вы взяли какашку, завернули ее в красивую этикетку и выставили на продажу, как импортные конфеты. Продавцы еще не поняли, что продают, но потом покупатели распробовали. И ваш бизнес схлопнулся. Вы добавили немного сахара и хотели продать еще, но говно от этого не стало шоколадом. Так же и на вашей той странице. Быстрый бот пришел и закинул страницу в индекс, но оказалось, что там контент ни о чем. И он его опустил подальше, чтоб никто не нашел. А вот два скриншота двух разных сайтов, полностью проиндексированных с помощью Indexing API.
Не ищите теорию заговора, без этого компонента Вы увидите аналогичную ситуацию. Новые страницы попадают в индекс, какое-то время идёт траф, потом исчезает. Стабильные переходы начинаются гораздо позже.
Да лучше подумать о уникальности контента))) А не сувать все подряд и удивляться что выбило все ссылки из поиска)
У нас больше данных подоспело — t.me/seorigin/42
Подобная картина прослеживается по целому ряду проектов не только по нашим исследованиям, но и у коллег по отрасли.
Не понятно, что вы хотите сказать своими ничего не значащими графиками. Ну ок, допустим ваша паранойя является истиной. Расскажите тогда неискушенным пользователям, как вообще проиндексировать сайт в Гугле, если Гугл его игнорирует? Честно говоря, не очень понимаю, к чему эти тупые комменты. Вы загнали сайт в индекс с помощью апи, а потом он начал лучше показываться в поиске. А без апи его, возможно, вообще в выдаче могло не быть. Возьмите на полке пирожок.
Вопросик, у меня версия видимо куплена 1-0-5, на сайте можно обновить до последней за 2800. Это можно сделать до 16 числа?
Да, после 16 сайт будет удален. Можно и позже, но уже не автоматически. Можете писать в тг: t.me/asnenne