Проверка удобства просмотра на мобильных устройствах

  • 9 Ответов
  • 1315 Просмотров

0 Пользователей и 1 Гость просматривают эту тему.

*

Khuchbarov

  • Осваиваюсь на форуме
  • ***
  • 82
  • 0
Друзья! Как решить это "Скриншот выглядит неправильно? Как открыть роботу Googlebot доступ к странице" ?
На скрине все видно...посмотрите пожалуйста! Там он не видит CSS шаблон сайта...
Вот еще инфа "Чтобы обеспечить правильное индексирование и отображение страниц, нужно предоставить роботу Googlebot доступ к JavaScript, CSS и графическим файлам на сайте. Робот Googlebot должен видеть ваш сайт как обычный пользователь. Если в файле robots.txt закрыт доступ к этим ресурсам, то Google не удастся правильно проанализировать и проиндексировать содержание. Это может ухудшить позиции вашего сайта в Поиске.
Рекомендуемые действия:
Убедитесь, что Googlebot может сканировать JavaScript, CSS и графические файлы. Для этого в Инструментах Google для веб-мастеров есть функция Просмотреть как Googlebot. Эта функция моделирует процесс сканирования и отображения страниц. С ее помощью можно найти и исправить ошибки индексирования сайта.
Проверьте свой файл robots.txt в Инструментах Google для веб-мастеров.
Проверьте свой мобильный сайт с помощью специального теста, чтобы узнать, насколько он удобен для пользователей телефонов.
Если у вас есть отдельные мобильные версии страниц, проверьте их наряду с URL для обычных компьютеров, чтобы убедиться, что переадресация выполняется без ошибок."


*

Kostelano

  • Давно я тут
  • ****
  • 345
  • 27
  • Константин
В robots.txt добавить:

Код
Allow: /media/*.css$
Allow: /media/*.js$
Allow: /templates/*.css$
Allow: /templates/*.js$

UPD
Финальный файл robots.txt пусть будет таким:

Код
User-agent: *
Disallow: /administrator/
Disallow: /bin/
Disallow: /cache/
Disallow: /cli/
Disallow: /components/
Disallow: /includes/
Disallow: /language/
Disallow: /layouts/
Disallow: /libraries/
Disallow: /logs/
Disallow: /media/
Disallow: /modules/
Disallow: /plugins/
Disallow: /templates/
Disallow: /tmp/
Allow: /images/
Allow: /media/*.css$
Allow: /media/*.js$
Allow: /templates/*.css$
Allow: /templates/*.js$
Host: vaytorg.ru
Sitemap: http://vaytorg.ru/index.php?option=com_xmap&view=xml&tmpl=component&id=1

Crawl-delay: 10 ----- лучше убрать, goggle не понимает эту директиву.
« Последнее редактирование: 07.05.2015, 00:48:26 от Kostelano »

*

Khuchbarov

  • Осваиваюсь на форуме
  • ***
  • 82
  • 0
Зашел в "adsense/Состояние сайта" и там когда я проверяю на оптимизацию, то все отображается правильно...Вы бы не могли проанализировать правильно у меня там или нет и нужно ли изменить робот.тхт?

*

Khuchbarov

  • Осваиваюсь на форуме
  • ***
  • 82
  • 0
Когда изменил robots.txt как Вы сказали..то после анализа выскочило "Сайт не оптимизирован" бла бла и какие ошибки)

*

Kostelano

  • Давно я тут
  • ****
  • 345
  • 27
  • Константин
Та робот не успел еще скушать все )) Нужно ждать.

Регистрируй сайт здесь: Google Webmasters, много полезной информации есть.

*

Khuchbarov

  • Осваиваюсь на форуме
  • ***
  • 82
  • 0
исправил robots.txt как Вы...теперь каша)

*

Kostelano

  • Давно я тут
  • ****
  • 345
  • 27
  • Константин
Код
Host: vaytorg.ru/

Здесь берите слэш в конце строки.

===========================

Код
Crawl-delay: 10

Эту строку лучше убрать. Может быть какое-то влияние оказывает эта строка на робота, который проверяет отображение на моб. устройстве. Хотя гугль не понимает ее. В любом случае, нет необходимости в этой строке. Неужели сайт прям перегружен запросами поисковых роботов?

===========================

Я смотрю, что вы используете com_k2 и com_djclassifieds.... Можно добавить в robots.txt следующую строку:

Код
Allow: /*.css$
Allow: /*.js$

Т.е. даем добро на индексирование всех скриптов и стилей сайта. Эти строки вместо тех 4х, которые были предложены выше.

*

Adrian1111

  • Давно я тут
  • ****
  • 272
  • 1
Подскажите пожалуйста кто-нибудь:

Этих строк оказалось недостаточно для сайта с виртуемартом
Allow: /media/*.css$
Allow: /media/*.js$
Allow: /templates/*.css$
Allow: /templates/*.js$

Гуглбот пожаловался на отсутствие доступа еще к файлам в папках:
/templates/имя_шаблона/css/
/components/com_virtuemart/assets/css/
/modules/mod_vm_cherry_picker/css/
/modules/mod_ariimageslider/mod_ariimageslider/js/themes/
/templates/имя_шаблона/js/
/components/com_virtuemart/assets/js/
/modules/mod_ariimageslider/mod_ariimageslider/js/
/modules/mod_vm_cherry_picker/js/
/templates/vp_promart/images/

В каждой из папок файлов много, но Гулбот просил доступ только к некоторым. Я их собственно и открыл для индексации. Правильно ли это? Или нужно папки полностью открывать?

*

Adrian1111

  • Давно я тут
  • ****
  • 272
  • 1


Я смотрю, что вы используете com_k2 и com_djclassifieds.... Можно добавить в robots.txt следующую строку:

Код
Allow: /*.css$
Allow: /*.js$

Т.е. даем добро на индексирование всех скриптов и стилей сайта. Эти строки вместо тех 4х, которые были предложены выше.

А вот так неправильно?
Allow: /*.js*
Allow: /*.css*

*

AlekVolsk

  • Профи
  • ********
  • 6301
  • 336
* - любой символ, а значит сработает и *.css и *.css.php, это неправильно

$ - окончание строки, т.е. условие *.css$ сработает, если после .css ничего не будет

по идее ранее указанный мною рецепт должен работать на все 100%, главное - ничего не закрывать после этого (т.е. все disallow должны быть строго перед всеми allow)
« Последнее редактирование: 29.07.2015, 15:53:57 от AlekVolsk »