
Но, как говорится и палка раз в год стреляет. Это все "суеверный" страх)))
От этого запрета в роботс, для сайта никаких проблем. У некоторых по таким мелочам база клиентов с номерами утекает и тд.
яндекс вебмастер, robots.txt
Да уж, это точно, если заявку на внесение в каталог рассматривают 3 месяца то может они там сначала все распечатывают, заверяют подписями и рассматривают в 10 департаментах.Яша проиндексирует сайт за неделю-две. За день-два такие вещи не происходят(касается Яндекса)
ага понял)Disallow: /*search # так закрываем абсолютно все до и после search, то есть и поиск закрыли, который выдает
ссылки вида instantcms.ru/index.php?view=search&query=%F1%E0%E9%F2 и тд
неа)Disallow: /search # так мы закрываем конкретно только все что после search,
на всякий случай уточнил чтоб люди не путали)и какая разница между
Disallow: /rss/
и
Disallow: /rss
если прописать это:Ничего нужного под запрет не попадет, тут конкретизируется путь.
С первого числа был только один АП у Яндекса за конец февраля… Так что ничего страшного, еще один-два Апа подождитеИсправил robots.txt 1-го числа. Сейчас яндекс вебмастер не ругается. Робот последний раз был 11 числа. Сегодня 13. В индексе по прежнему только главная страница :(
Видео я не закрывал, а закрыл каналы пользователей )))soxom, а почему видео нужно закрывать роботсом ?
Disallow: /rss/
это закрыл, чтобы не воровали или для чего ?
и какая разница между
Disallow: /rss/
и
Disallow: /rss
Не вижу необходимости в ваших правках… Мало того, для некоторых сайтов может быть опасна ваша система запретов. Ведь при вашем роботсе любая страничка в урле которой содержится допустим search не будет проиндексирована. То есть статья в блоге с названием допустим "используем функцию Search", не будет проиндексирована! Поэтому не усложняем себе жизнь ))) Работать будут оба варианта, но первый вариант запрещает индексирование раздела, а второй вариант запрещает к индексации все… Кому нужные такие сложности?Во первых не стоит забывать о правилах файла, по этому стоит серьезно отнестись к этому. Один из важнейших файлов, можно такого наколбасить… Это не упрек, всего знать нельзя.
Disallow: /search # так не будет работать
Disallow: /*search # так будет
Disallow: /index.php # закроет все что с него начинается и не исполнит задачу убрать дубль
Disallow: /index.php$ # так сработает как и задумано.
Не стоит пытаться закрыть все. Главное закрыть мусор, а это делается реально с помощью всего трех запретов )))На самом деле закрыть стоит все от индексации, что не должно быть в индексе. всякое бывает и можно где то накосячить и потом будет мучительно больно...
А если у нас в роботсе стоит запрет на index.php и на search, то эти ссылки итак не проиндексируются… Так зачем изобретать велосипед?Два варианта прописал, просто не помню какие, так по памяти и по быстрому, зато наверняка)))
Disallow: /search # так мы закрываем конкретно только все что после search, ссылки такого вида instantcms.ru/search&query=%F1%E0%E9%F2
Disallow: /*search # так закрываем абсолютно все до и после search, то есть и поиск закрыли, который выдает
ссылки вида instantcms.ru/index.php?view=search&query=%F1%E0%E9%F2 и тд, собственно введите что нить в поиск и проверьте потом ссылку результата. Плюс еще таких моментов хватает.
Мало того, для некоторых сайтов может быть опасна ваша система запретов.
Ведь при вашем роботсе любая страничка в урле которой содержится допустим search не будет проиндексирована.
Не стоит пытаться закрыть все. Главное закрыть мусор, а это делается реально с помощью всего трех запретов
А если у нас в роботсе стоит запрет на index.php и на search, то эти ссылки итак не проиндексируются… Так зачем изобретать велосипед?
Кстати вот пример как бот может увидеть поиск.не совсем правильно закрывать то что робот сам не увидит
Ну так и делайте роботсы так как считаете правильно. Наблюдая за аудиторией Инстанта, я могу со стопроцентной уверенностью сказать что сейчас 20-30% участников стали переделывать свои роботсы потому что вы написали что тот вариант не работает. И представляю сколько будет ошибок… А ведь работает и старый вариант, причем я не сказал бы что он хуже, наоборот. Хотя я не отрицаю что ваш также рабочий, но смысла в нем не вижу, так как все мусорные разделы мы отрезаем:Уважаемый, я знаю что говорю, по крайней мере последние лет пять при изначально составленном правильно файле ни один сайтик клиентов не получил тормозов из за всяких случайностей со стороны клиента или других. Плюс вывод из под фильтров без грамотного файлика, как? И еще примеров масса...
Я редко кому верю на слово и всегда проверяю все варианты.soxom, Уважаемый, поверьте мне на слово, чем качественней составлен этот файл тем удачнее и без без проблемно все проходит.
Я не усомнился в том что ваш роботс работает, я просто написал что ваши настройки нужны только вам и никому больше. Не стоит усложнять жизнь ни себе ни окружающим.Если вы прочитали бы более подробно а не эмоциями, то увидели бы что это набросок дающий понятие и существуют различные правила включая Allow:, о чем и написал.
А у нас итак поиск в роботсе закрыт — Disallow: /search и Disallow: /index.php так что враг не пройдет фэйсконтроль, он не знает пролетарский пароль )))Любимая фраза админов и модераторов " Поиском пользоваться научитесь, все давно описано" и ссылка на поиск или на уже готовые результаты поиска. В итоге имеем в индексе кучу хлама )))
Вот вы опять приводите не подумав, что структура сайта имеет свои особенности и файл делается именно к сайту а не на показ. Маны того же яндекса почитайте на досуге.(опять не упрек)P.S.: А вообще, лучший способ, просмотреть как сделано на самом Яндексе — www.yandex.ru/robots.txt я там звездочек к своему удивлению не заметил...
Лучше настроить трансляцию сразу в твиттер, фейсбук…В твиттер ссылки добавлял недавно. Sitemap есть.