Robots.txt для instantcms 2

InstantCMS 2.X
#1 16 июля 2019 в 09:32
instantcms robots txt


проверенный с весны, помог убрать ошибки в вебмастере гугл и яндекс


# vestacp autogenerated robots.txt
User-agent: *
Crawl-delay: 5
Allow: /
Disallow: /auth*
Disallow: /posts/add
Disallow: /posts-latest?page=*
Disallow: /tags/*
Disallow: /subscriptions/*
Disallow: /posts?*
Disallow: /groups/index/*
Disallow: /comments*
Disallow: /comments/*
Disallow: /activity*
Disallow: /refresh*
Disallow: /users/*
Disallow: /*?page=*
Disallow: /complain/*
Disallow: /redirect?url=
Host:SITE.com
Sitemap: SITE.com/sitemap.xml

User-agent: Yandex
Allow: /
Disallow: /auth*
Disallow: /posts/add
Disallow: /posts-latest?page=*
Disallow: /tags/*
Disallow: /posts?*
Disallow: /subscriptions/*
Disallow: /groups/index/*
Disallow: /comments*
Disallow: /comments/*
Disallow: /activity*
Disallow: /refresh*
Disallow: /users/*
Disallow: /*?page=*
Disallow: /complain/*
Disallow: /redirect?url=



User-Agent: Googlebot
Allow: /
Disallow: /auth*
Disallow: /posts/add
Disallow: /posts-latest?page=*
Disallow: /tags/*
Disallow: /posts?*
Disallow: /groups/index/*
Disallow: /comments*
Disallow: /comments/*
Disallow: /subscriptions/*
Disallow: /activity*
Disallow: /refresh*
Disallow: /users/*
Disallow: /*?page=*
Disallow: /complain/*
Disallow: /redirect?url=



User-Agent: Mediapartners-Google
Allow: /
User-Agent: Googlebot
Allow: /
Disallow: /auth*
Disallow: /posts/add
Disallow: /posts-latest?page=*
Disallow: /tags/*
Disallow: /subscriptions/*
Disallow: /posts?*
Disallow: /groups/index/*
Disallow: /comments*
Disallow: /comments/*
Disallow: /activity*
Disallow: /refresh*
Disallow: /users/*
Disallow: /*?page=*
Disallow: /complain/*
Disallow: /redirect?url=


User-agent: OmniExplorer_Bot
Disallow: /

User-agent: FreeFind
Disallow: /

User-agent: BecomeBot
Disallow: /

User-agent: Nutch
Disallow: /

User-agent: Jetbot/1.0
Disallow: /

User-agent: Jetbot
Disallow: /

User-agent: WebVac
Disallow: /

User-agent: Stanford
Disallow: /

User-agent: naver
Disallow: /

User-agent: dumbot
Disallow: /

User-agent: Hatena Antenna
Disallow: /

User-agent: grub-client
Disallow: /

User-agent: grub
Disallow: /

User-agent: looksmart
Disallow: /

User-agent: WebZip
Disallow: /

User-agent: larbin
Disallow: /

User-agent: b2w/0.1
Disallow: /

User-agent: Copernic
Disallow: /

User-agent: psbot
Disallow: /

User-agent: Python-urllib
Disallow: /

User-agent: Googlebot-Image
Allow: /

User-agent: NetMechanic
Disallow: /

User-agent: URL_Spider_Pro
Disallow: /

User-agent: CherryPicker
Disallow: /

User-agent: EmailCollector
Disallow: /

User-agent: EmailSiphon
Disallow: /

User-agent: WebBandit
Disallow: /

User-agent: EmailWolf
Disallow: /

User-agent: ExtractorPro
Disallow: /

User-agent: CopyRightCheck
Disallow: /

User-agent: Crescent
Disallow: /

User-agent: SiteSnagger
Disallow: /

User-agent: ProWebWalker
Disallow: /

User-agent: CheeseBot
Disallow: /

User-agent: LNSpiderguy
Disallow: /

User-agent: mozilla
Disallow: /

User-agent: mozilla/3
Disallow: /

User-agent: mozilla/4
Disallow: /

User-agent: mozilla/5
Disallow: /

User-agent: Mozilla/4.0 (compatible; MSIE 4.0; Windows NT)
Disallow: /

User-agent: Mozilla/4.0 (compatible; MSIE 4.0; Windows 95)
Disallow: /

User-agent: Mozilla/4.0 (compatible; MSIE 4.0; Windows 98)
Disallow: /

User-agent: Mozilla/4.0 (compatible; MSIE 4.0; Windows XP)
Disallow: /

User-agent: Mozilla/4.0 (compatible; MSIE 4.0; Windows 2000)
Disallow: /

User-agent: ia_archiver
Disallow: /

User-agent: ia_archiver/1.6
Disallow: /

User-agent: Alexibot
Disallow: /

User-agent: Teleport
Disallow: /

User-agent: TeleportPro
Disallow: /

User-agent: Stanford Comp Sci
Disallow: /

User-agent: MIIxpc
Disallow: /

User-agent: Telesoft
Disallow: /

User-agent: Website Quester
Disallow: /

User-agent: moget/2.1
Disallow: /

User-agent: WebZip/4.0
Disallow: /

User-agent: WebStripper
Disallow: /

User-agent: WebSauger
Disallow: /

User-agent: WebCopier
Disallow: /

User-agent: NetAnts
Disallow: /

User-agent: Mister PiX
Disallow: /

User-agent: WebAuto
Disallow: /

User-agent: TheNomad
Disallow: /

User-agent: WWW-Collector-E
Disallow: /

User-agent: RMA
Disallow: /

User-agent: libWeb/clsHTTP
Disallow: /

User-agent: asterias
Disallow: /

User-agent: httplib
Disallow: /

User-agent: turingos
Disallow: /

User-agent: spanner
Disallow: /

User-agent: InfoNaviRobot
Disallow: /

User-agent: Harvest/1.5
Disallow: /

User-agent: Bullseye/1.0
Disallow: /

User-agent: Mozilla/4.0 (compatible; BullsEye; Windows 95)
Disallow: /

User-agent: Crescent Internet ToolPak HTTP OLE Control v.1.0
Disallow: /

User-agent: CherryPickerSE/1.0
Disallow: /

User-agent: CherryPickerElite/1.0
Disallow: /

User-agent: WebBandit/3.50
Disallow: /

User-agent: NICErsPRO
Disallow: /

User-agent: Microsoft URL Control — 5.01.4511
Disallow: /

User-agent: DittoSpyder
Disallow: /

User-agent: Foobot
Disallow: /

User-agent: WebmasterWorldForumBot
Disallow: /

User-agent: SpankBot
Disallow: /

User-agent: BotALot
Disallow: /

User-agent: lwp-trivial/1.34
Disallow: /

User-agent: lwp-trivial
Disallow: /

User-agent: BunnySlippers
Disallow: /

User-agent: Microsoft URL Control — 6.00.8169
Disallow: /

User-agent: URLy Warning
Disallow: /

User-agent: Wget/1.6
Disallow: /

User-agent: Wget/1.5.3
Disallow: /

User-agent: Wget
Disallow: /

User-agent: LinkWalker
Disallow: /

User-agent: cosmos
Disallow: /

User-agent: moget
Disallow: /

User-agent: hloader
Disallow: /

User-agent: humanlinks
Disallow: /

User-agent: LinkextractorPro
Disallow: /

User-agent: Offline Explorer
Disallow: /

User-agent: Mata Hari
Disallow: /

User-agent: LexiBot
Disallow: /

User-agent: Web Image Collector
Disallow: /

User-agent: The Intraformant
Disallow: /

User-agent: True_Robot/1.0
Disallow: /

User-agent: True_Robot
Disallow: /

User-agent: BlowFish/1.0
Disallow: /

User-agent: www.SearchEngineWorld.com bot
Disallow: /

User-agent: www.WebmasterWorld.com bot
Disallow: /

User-agent: JennyBot
Disallow: /

User-agent: MIIxpc/4.2
Disallow: /

User-agent: BuiltBotTough
Disallow: /

User-agent: ProPowerBot/2.14
Disallow: /

User-agent: BackDoorBot/1.0
Disallow: /

User-agent: toCrawl/UrlDispatcher
Disallow: /

User-agent: WebEnhancer
Disallow: /

User-agent: suzuran
Disallow: /

User-agent: VCI WebViewer VCI WebViewer Win32
Disallow: /

User-agent: VCI
Disallow: /

User-agent: Szukacz/1.4
Disallow: /

User-agent: QueryN Metasearch
Disallow: /

User-agent: Openfind data gathere
Disallow: /

User-agent: Openfind
Disallow: /

User-agent: Xenu's Link Sleuth 1.1c
Disallow: /

User-agent: Xenu's
Disallow: /

User-agent: Zeus
Disallow: /

User-agent: RepoMonkey Bait & Tackle/v1.01
Disallow: /

User-agent: RepoMonkey
Disallow: /

User-agent: Microsoft URL Control
Disallow: /

User-agent: Openbot
Disallow: /

User-agent: URL Control
Disallow: /

User-agent: Zeus Link Scout
Disallow: /

User-agent: Zeus 32297 Webster Pro V2.9 Win32
Disallow: /

User-agent: Webster Pro
Disallow: /

User-agent: EroCrawler
Disallow: /

User-agent: LinkScan/8.1a Unix
Disallow: /

User-agent: Keyword Density/0.9
Disallow: /

User-agent: Kenjin Spider
Disallow: /

User-agent: Iron33/1.0.2
Disallow: /

User-agent: Bookmark search tool
Disallow: /

User-agent: GetRight/4.2
Disallow: /

User-agent: FairAd Client
Disallow: /

User-agent: Gaisbot
Disallow: /

User-agent: Aqua_Products
Disallow: /

User-agent: Radiation Retriever 1.1
Disallow: /

User-agent: WebmasterWorld Extractor
Disallow: /

User-agent: Flaming AttackBot
Disallow: /

User-agent: Oracle Ultra Search
Disallow: /

User-agent: MSIECrawler
Disallow: /

User-agent: PerMan
Disallow: /

User-agent: searchpreview
Disallow: /

User-agent: sootle
Disallow: /

User-agent: es
Disallow: /

User-agent: Enterprise_Search/1.0
Disallow: /

User-agent: Enterprise_Search
Disallow: /

User-Agent: MJ12bot
Disallow: /
Crawl-Delay: 5



#2 16 июля 2019 в 13:24
Годно, спасибо!
#3 16 июля 2019 в 13:56
Заралик,

у меня там

Disallow: /posts/add

если у вас "типов контента" больше — то нужно для каждого такое прописывать… хотя… это надо гостем смотреть — у меня для гостя открыта эта кнопка, но ведет на регистрацию

тоже самое касается всех записей с упоминанием posts

Disallow: /posts?*

типа такого… это для каждого типа контента нужно делать
#4 16 июля 2019 в 16:26

проверенный с весны, помог убрать ошибки в вебмастере гугл и яндекс

@iKrym
Зачем прописываете
Host:SITE.com
Sitemap: SITE.com/sitemap.xml
Они подставляются автоматом самим компонентом.
#5 16 июля 2019 в 17:29

Host:SITE.com

vikont

Скажу больше host больше вообще не используется:
yandex.ru/blog/platon/pereezd-sayta-posle-otkaza-ot-direktivy-host

По мне так в приведенном роботсе вообще много лишнего...
А будут или нет ошибки зависит от конкретного сайта, на сколько для него правильно составлен СВОЙ роботс.
#6 17 июля 2019 в 17:28

Скажу больше host больше вообще не используется:

Rainbow
Так и есть. Я прописал в robots.txt один host, а Яндекс сделал главным зеркало.
Так ему показалось нужным.
А в Google вебмастере вообще пишет — проиндексировано, не смотря на запрет в robots.txt.
Но за пример спасибо! Посмотрел с интересом.
#7 17 июля 2019 в 17:33

Я прописал в robots.txt один host, а Яндекс сделал главным зеркало.
Так ему показалось нужным.

ermakover

Может надо было "переезд" на новый домен сделать…
#8 17 июля 2019 в 19:19
Хм… Подставил в компонент и вот такая ошибка — "Слишком длинное значение (макс. длина: 4096)". Т.е. подключить сиё через компонент не получиться?
#9 17 июля 2019 в 20:10

Я прописал в robots.txt один host, а Яндекс сделал главным зеркало.
Так ему показалось нужным.

ermakover

В яндексе нужно указывать главное зеркало
#10 17 июля 2019 в 21:34

В яндексе нужно указывать главное зеркало

@iKrym

Нет там сейчас такого инструмента...
Только "переезд" в нем и указываются зеркала...
yandex.ru/support/webmaster/yandex-indexing/site-mirrors.html
#11 17 июля 2019 в 22:55

проверенный с весны, помог убрать ошибки в вебмастере гугл и яндекс

@iKrym
Никогда не думал что бывает такой длинный роботс.тхт shockДополнение Генератор карты сайта и robots.txt пишет: Слишком длинное значение (макс. длина: 4096)
#12 18 июля 2019 в 08:15

В яндексе нужно указывать главное зеркало

@iKrym
Указывал в вебмастере Яндекса. Ему по фиг — он сделал главным тот домен, который посчитал нужным. На который больше ссылок и который старше.
#13 18 июля 2019 в 09:38

Указывал в вебмастере Яндекса. Ему по фиг — он сделал главным тот домен, который посчитал нужным

ermakover

Такого не может быть.
Скорее всего у Вас редирект был настроен не со всех НЕ главных зеркал.

Если правильно указан редирект в .htaccess на главное зеркало, то есть если с любого адреса, с www., без www, http:// или https:// и т.д. НЕ главного зеркала открывается главное зеркало, оно и будет выбрано.

webmaster.yandex.ru/blog/301-y-redirekt-polnostyu-zamenil-direktivu-host
yandex.ru/blog/platon/pereezd-sayta-posle-otkaza-ot-direktivy-host

Слишком длинное значение (макс. длина: 4096)

ignat

Вот и боты так же определят))
(Это шутка, по длинне роботса ограничений не видел).

Смотрю многих этот роботс интересует...
Поэтому еще раз напишу...

По мне так по этому роботсу можно много поспорить и урезать его строк до 20...
НО: так как и в таком виде он может быть для кого то рабочим (если конечно роботы его прочтут)) то пусть будет)).
#14 18 июля 2019 в 15:58
не бывает "стандартных" роботс
и большой роботс еще не значит, что он хороший
это я вам говорю как человек, который в SEO уже много лет
роботс сугубо индивидуален. то что помогло вашему сайту, не факт что поможет другому
правильнее делать так — сканируется сайт краулером, далее смотрите, проверяете индекс, анализируете структуру и контент сайта и исходя из этого составляете свои правила. потом ещё раз сканируете и так повторяете несколько раз, пока не будет оптимальный набор
а что касается ботов, то часть из них просто игнорирует роботс, а остальная часть никогда к вам на сайт и не придет
правильнее посмотреть логи на сервере и определить какие боты сканируют
#15 18 июля 2019 в 16:22

не бывает "стандартных" роботс
и большой роботс еще не значит, что он хороший

Timmy
Жму руку.
Я думал всё, здравый смысл ушел, ан нет. Спасибо, что пытаетесь вразумить.

Rainbow, зачем читать документацию, когда можно просто погадать на форуме, формируя такой вот "опыт".
Вы не можете отвечать в этой теме.
Войдите или зарегистрируйтесь, чтобы писать на форуме.

Похожие темы

Компонент Sitemap и robots

Компоненты Создана 4 года назад 3 сообщения

Вопрос по robots.txt

SEO & PR Создана 4 года назад 7 сообщений

robots.txt

SEO & PR Создана 3 года назад 7 сообщений

Используя этот сайт, вы соглашаетесь с тем, что мы используем файлы cookie.