Поисковые роботы Google начнут обращать внимание на CSS и JavaScript файлы, а также на изображения на странице. Соответствующие изменения Google внес в Руководство для вебмастеров. Для того чтобы индексация веб-страниц происходила корректно, роботам Google необходимо открыть в файле robots.txt доступ к перечисленным элементам. В противном случае сайт может потерять позиции в поисковой выдаче.
По словам разработчиков Google, смысл обновления — отказ от прежнего принципа работы систем индексирования, идентичного устаревшим текстовым веб-браузерам наподобие Lynx. Новая технология индексирования заключается в визуализации (рендеринге) распознаваемых страниц. По мнению представителей Google, это больше соответствует такому понятию, как «современный веб-браузер».
Google выделил ряд пунктов, о которых важно не забывать. Первое — движок Google, осуществляющий рендеринг веб-страниц, может не поддерживать некоторые технологии веб-дизайна, с помощью которых написана страница. Поэтому разработчикам сайтов рекомендовано следовать концепции прогрессивного улучшения. Её принципы позволяют системам индексирования лучше распознавать содержимое страниц.
Страницы, которые быстро загружаются, эффективнее индексируются поисковыми роботами. Для успешной индексации представители Google советуют оптимизировать веб-страницы, обращая внимание на следующие параметры:
отсутствие лишних загружаемых элементов на сайте,
объединение отдельных файлов CSS и JavaScript в один посредством минификации. Это повысит скорость загрузки страницы и снизит нагрузку на сервер.
возможность сервера обеспечивать корректную работу JavaScript и CSS файлов, а также их взаимодействие с ботами Google.
Поисковик также обновил опцию Fetch as Google — «Просмотреть, как Googlebot». Данный инструмент позволяет вебмастерам посмотреть на сканирование страниц глазами поискового робота.
Напомним, что обновление принципов работы систем индексации разработчики Google анонсировали ещё в мае 2014 года, о чем даже написали соответствующий пост. В нем говорилось, что до нынешнего момента внимание обращалось только на «сырое текстовое содержание» страницы, а JavaScript и CSS игнорировались.
Подробнее: www.seonews.ru/events/novoe-izmenenie-v-rukovodstve-google-dlya-vebmasterov/
А на самом деле, вот это должно было заинтересовать.
Для того чтобы индексация веб-страниц происходила корректно, роботам Google необходимо открыть в файле robots.txt доступ к перечисленным элементам. В противном случае сайт может потерять позиции в поисковой выдаче.
Не выйдет, роботс все только что внутри домена)))А что если я в роботсе укажу стили и скрипты чужого сайта?
Зачем их нужно в роботс файле перечислять, в теле шаблона взять ума не хватает?
Например папка темы может быть закрыта или другие папки.
Да не, браузер ведь имеет возможность скачать стили и скрипты шаблона.Например папка темы может быть закрыта или другие папки.
Я могу с другого сайта скачать и у себя разместить, я это к тому что с этим роботсом выйдет как с оценками за товар, то есть я могу в наглую ставить то что мне выгодно.Не выйдет, роботс все только что внутри домена)))
Да не, браузер ведь имеет возможность скачать стили и скрипты шаблона.
Disallow: /папка/ #то боту туда путь закрыт
Вот так открыт
Allow: /бла бла/*.js
Allow: /бла бла/*.css
Я могу с другого сайта скачать и у себя разместить, я это к тому что с этим роботсом выйдет как с оценками за товар, то есть я могу в наглую ставить то что мне выгодно.
Не думаю что прогеры в гугле настолько тупы)))
а на счет быстроты, то лучше всех пс любит аштмл разметку.
как-то проверял ранжирование с одним и тем же текстом, результат — страницы на " пхп-движках" уступают" статичным аштмл
в сети есть целые кланы, секты и т.д. любителей скрывать скрипты, куски кода, файлы)) это серьезно)кто вообще ява-скрипты на странице закрывает… это мало кто делает...
Объясните мне, как они собираются цсс файл обрабатывать? Нафига это надо?
Вот новость от гугла и там куча ссылок на ифу и комменты googlewebmastercentral.blogspot.ru/2014/10/updating-our-technical-webmaster.html