Всем Мира и Добра!
Уважемые подскажите! Количество записей в одном файле 50000, а уменя более 100000 страниц, как разделить и дать гуглу их проверять?

Как обозначить все страницы?
Просьба подскажите...
Вопрос
Всем Мира и Добра!
Уважемые подскажите! Количество записей в одном файле 50000, а уменя более 100000 страниц, как разделить и дать гуглу их проверять?

Как обозначить все страницы?
Просьба подскажите...
У тебя что, в одном ТК 100к записей?.. Там по каждому ТК создается своя карта.
По стандарту Google и Sitemaps.org, если у вас больше 50 000 URL, необходимо разбивать карту сайта на несколько файлов sitemap.xml (каждый до 50 000 URL и ≤50 Мб). Он не примет карту так или иначе если будет больше.
У тебя что, в одном ТК 100к записей?.. Там по каждому ТК создается своя карта.По стандарту Google и Sitemaps.
Я понял что по 50000, как разбить частями?
У меня их более чем 100000… Вот только не могу понять где и как дать гуглу читать все статьи… Поясните пожалуйта..
Наверно никак, но это не точно ). У меня есть кирпичь для решения этого вопроса, но он такой се.
1. Сделать Бекап БД
2. Удалить последние 50к записей из существующей БД с помощью SQL запроса.
3. Сгенерировать еще раз карту сайта
4. Скачать эту карту в корень сайта под цифрой 2 sitemap-2.xml.
5. Залить на сайт
6. Откатить БД в исходное состояние
7. Скормить вторую карту.
На всё про всё максимум уйдет минут 10. НО это ТОПОРное решение НО вполне рабочее ))).
R161Net Наверно никак, но это не точно ). У меня есть кирпичь для решения этого вопроса, но он такой се.1. Сделать Бекап БД2. Удалить последние 50к записей из существующей БД с помощью SQL запроса.3.
Так это же не решение… Если у меня на сайте более ляма статей, он читает только последние 50000 и все? Это не есть хорошо.
Нужно как то решать данный вопрос, возможность разбивать sitemap 1,2,3,4,5… что бы все статьи были в индексе… Даже старые.
Тогда только доработка наверно. И еще для инфы. Карта сайта не гарантирует индексацию страниц поисковыми системами, она лишь облегчает доступ к этим страницам и ускоряет их нахождение роботами Google, Яндекс и др.
InstantCMS автоматически будет разбивать на несколько файлов, если в одном будет превышение.
Это хорошо! Но какую ссылку дать гуглу для их индексации… ( Может я не правильно вырожаюсь)
То Есть! Файл содержить только 50000 ссылок для индексации, у меня их более или меннее ляма… Есть ли возможность разделения..
sitemap1.xml, sitemap2.xml, sitemap3.xml и так далее?
Есть на сайте хорошие статьи, их читают и они на самом деле нужные… Они часто выподают из индексации… И не появляются в поисках… (Это уже сами новые индексы гугла и яндекса..)
Но я думаю если они будут в карте sitemap123456.xml… Возможно такой проблемы не будет..
Возможно ошибаюсь, поправьте… Но считывание этих статей ежемесячно важно..
Прошу совет! Подскажите!

Но какую ссылку дать гуглу для их индексации
А что написано на вашем скриншоте под формой?
После генерации индекс карт доступен по адресу
Вот эту ссылку и надо давать. Никакие иные ссылки давать не надо. Одну. Ссылку. На индексный файл карты. Всё. Гугл/Яндекс всё умеет. И по их документации был написан компонент. Зачем вы что-то выдумываете, я не знаю.
Но я думаю если они будут в карте sitemap123456.xml… Возможно такой проблемы не будет..
Это ошибочное мнение. Если ПС посчитает эту статью сгенерированной нейронкой или копипаст, или иное что не удовлетворяет их правилам, он её выкинет из индекса даже не задумываясь, читают её или нет. Я уже писал выше, карта сайта не гарантирует попадание в индекс. Тут работают другие правиила, как минимум почитайте тут.
PS. Если у вас, по вашим словами чуть ли не миллион страниц, то это 100500 сгенерированный контент, и никак иначе, поэтому его ПС будет выкидывать. Таких умников тоже 100500 😀
Но какую ссылку дать гуглу для их индексации R161Net А что написано на вашем скриншоте под формой? После генерации индекс карт доступен по адресу Вот эту ссылку и надо давать.
Я просто уточняю… Спасибо.
Но я думаю если они будут в карте sitemap123456.xml… Возможно такой проблемы не будет… R161Net Это ошибочное мнение.
Значит ошибаюсь! Спасибо за ссылку обязательно почитаю..