Новости Joomla

Вышли релизы безопасности Joomla 6.0.4 и Joomla 5.4.4

Релиз безопасности Joomla 6.0.4 и Joomla 5.4.4

Проект Joomla! рад сообщить о выходе Joomla 6.0.4 и Joomla 5.4.4. Это релизы безопасности и исправления ошибок для серий 5.x и 6.x.

👩‍💻 WT CDEK library v.1.3.0 - обновление PHP SDK для Joomla + CDEK.

👩‍💻 WT CDEK library v.1.3.0 - обновление PHP SDK для Joomla + CDEK.

Небольшая нативная PHP Joomla библиотека для работы с API v.2 службы доставки CDEK. Библиотека представляет собой клиент для авторизации в CDEK API по OAuth, работы с некоторыми методами API: получения ряда данных и расчета стоимости доставки. Поддерживается Joomla 4.2.7 и выше.

В пакет входят:
- библиотека Webtolk/Cdekapi
- системный плагин System - WT Cdek для хранения настроек и AJAX-интеграций
- task-плагин Task - Update WT Cdek data для обновления локальных копий справочников CDEK по расписанию
- web asset с официальным JavaScript-виджетом СДЭК

👉 v.1.3.0. Что нового?
- Полный рефакторинг библиотеки. Библиотека переработана в entity-based API с фасадом Cdek и отдельным слоем запросов. Обратная совместимость не нарушена, поэтому версия библиотеки - 1.3.0.
- Добавлена поддержка новых разделов API СДЭК. Добавлена поддержка новых разделов API СДЭК: webhooks, prealert, печатные формы, payment, passport, reverse, intakes и других сущностей.
- Улучшена интеграция с Joomla.
Улучшена интеграция с Joomla: installer script для layouts, новые поля Joomla Form для тарифов и обновлённые js виджета CDEK.
- документация библиотеки. Все методы библиотеки подробно описаны, а так же текст документации собран в отдельной папке в git репозитории и будет опубликован на сайте.

Библиотека эта нужна для разработчиков, создающих свои расширения для интеграции Joomla и курьерской службы CDEK.

Страница расширения
GitHub расширения

@joomlafeed

0 Пользователей и 1 Гость просматривают эту тему.
  • 9 Ответов
  • 2405 Просмотров
*

Khuchbarov

  • Захожу иногда
  • 79
  • 0 / 0
Друзья! Как решить это "Скриншот выглядит неправильно? Как открыть роботу Googlebot доступ к странице" ?
На скрине все видно...посмотрите пожалуйста! Там он не видит CSS шаблон сайта...
Вот еще инфа "Чтобы обеспечить правильное индексирование и отображение страниц, нужно предоставить роботу Googlebot доступ к JavaScript, CSS и графическим файлам на сайте. Робот Googlebot должен видеть ваш сайт как обычный пользователь. Если в файле robots.txt закрыт доступ к этим ресурсам, то Google не удастся правильно проанализировать и проиндексировать содержание. Это может ухудшить позиции вашего сайта в Поиске.
Рекомендуемые действия:
Убедитесь, что Googlebot может сканировать JavaScript, CSS и графические файлы. Для этого в Инструментах Google для веб-мастеров есть функция Просмотреть как Googlebot. Эта функция моделирует процесс сканирования и отображения страниц. С ее помощью можно найти и исправить ошибки индексирования сайта.
Проверьте свой файл robots.txt в Инструментах Google для веб-мастеров.
Проверьте свой мобильный сайт с помощью специального теста, чтобы узнать, насколько он удобен для пользователей телефонов.
Если у вас есть отдельные мобильные версии страниц, проверьте их наряду с URL для обычных компьютеров, чтобы убедиться, что переадресация выполняется без ошибок."

*

Kostelano

  • Давно я тут
  • 525
  • 52 / 1
В robots.txt добавить:

Код
Allow: /media/*.css$
Allow: /media/*.js$
Allow: /templates/*.css$
Allow: /templates/*.js$

UPD
Финальный файл robots.txt пусть будет таким:

Код
User-agent: *
Disallow: /administrator/
Disallow: /bin/
Disallow: /cache/
Disallow: /cli/
Disallow: /components/
Disallow: /includes/
Disallow: /language/
Disallow: /layouts/
Disallow: /libraries/
Disallow: /logs/
Disallow: /media/
Disallow: /modules/
Disallow: /plugins/
Disallow: /templates/
Disallow: /tmp/
Allow: /images/
Allow: /media/*.css$
Allow: /media/*.js$
Allow: /templates/*.css$
Allow: /templates/*.js$
Host: vaytorg.ru
Sitemap: http://vaytorg.ru/index.php?option=com_xmap&view=xml&tmpl=component&id=1

Crawl-delay: 10 ----- лучше убрать, goggle не понимает эту директиву.
« Последнее редактирование: 06.05.2015, 22:48:26 от Kostelano »
*

Khuchbarov

  • Захожу иногда
  • 79
  • 0 / 0
Зашел в "adsense/Состояние сайта" и там когда я проверяю на оптимизацию, то все отображается правильно...Вы бы не могли проанализировать правильно у меня там или нет и нужно ли изменить робот.тхт?
*

Khuchbarov

  • Захожу иногда
  • 79
  • 0 / 0
Когда изменил robots.txt как Вы сказали..то после анализа выскочило "Сайт не оптимизирован" бла бла и какие ошибки)
*

Kostelano

  • Давно я тут
  • 525
  • 52 / 1
Та робот не успел еще скушать все )) Нужно ждать.

Регистрируй сайт здесь: Google Webmasters, много полезной информации есть.
*

Khuchbarov

  • Захожу иногда
  • 79
  • 0 / 0
исправил robots.txt как Вы...теперь каша)
*

Kostelano

  • Давно я тут
  • 525
  • 52 / 1
Код
Host: vaytorg.ru/

Здесь берите слэш в конце строки.

===========================

Код
Crawl-delay: 10

Эту строку лучше убрать. Может быть какое-то влияние оказывает эта строка на робота, который проверяет отображение на моб. устройстве. Хотя гугль не понимает ее. В любом случае, нет необходимости в этой строке. Неужели сайт прям перегружен запросами поисковых роботов?

===========================

Я смотрю, что вы используете com_k2 и com_djclassifieds.... Можно добавить в robots.txt следующую строку:

Код
Allow: /*.css$
Allow: /*.js$

Т.е. даем добро на индексирование всех скриптов и стилей сайта. Эти строки вместо тех 4х, которые были предложены выше.
*

Adrian1111

  • Захожу иногда
  • 271
  • 1 / 0
Подскажите пожалуйста кто-нибудь:

Этих строк оказалось недостаточно для сайта с виртуемартом
Allow: /media/*.css$
Allow: /media/*.js$
Allow: /templates/*.css$
Allow: /templates/*.js$

Гуглбот пожаловался на отсутствие доступа еще к файлам в папках:
/templates/имя_шаблона/css/
/components/com_virtuemart/assets/css/
/modules/mod_vm_cherry_picker/css/
/modules/mod_ariimageslider/mod_ariimageslider/js/themes/
/templates/имя_шаблона/js/
/components/com_virtuemart/assets/js/
/modules/mod_ariimageslider/mod_ariimageslider/js/
/modules/mod_vm_cherry_picker/js/
/templates/vp_promart/images/

В каждой из папок файлов много, но Гулбот просил доступ только к некоторым. Я их собственно и открыл для индексации. Правильно ли это? Или нужно папки полностью открывать?
*

Adrian1111

  • Захожу иногда
  • 271
  • 1 / 0


Я смотрю, что вы используете com_k2 и com_djclassifieds.... Можно добавить в robots.txt следующую строку:

Код
Allow: /*.css$
Allow: /*.js$

Т.е. даем добро на индексирование всех скриптов и стилей сайта. Эти строки вместо тех 4х, которые были предложены выше.

А вот так неправильно?
Allow: /*.js*
Allow: /*.css*
*

AlekVolsk

  • Гуру
  • 6913
  • 416 / 4
* - любой символ, а значит сработает и *.css и *.css.php, это неправильно

$ - окончание строки, т.е. условие *.css$ сработает, если после .css ничего не будет

по идее ранее указанный мною рецепт должен работать на все 100%, главное - ничего не закрывать после этого (т.е. все disallow должны быть строго перед всеми allow)
« Последнее редактирование: 29.07.2015, 13:53:57 от AlekVolsk »
Чтобы оставить сообщение,
Вам необходимо Войти или Зарегистрироваться
 

Массовая проверка позиций сайтов. Как?

Автор dm-krv

Ответов: 10
Просмотров: 4736
Последний ответ 26.09.2022, 18:03:40
от Bobbi86
Проверка ссылок - Ошибки на ссылки Закрыты от индексации

Автор leo78

Ответов: 8
Просмотров: 3665
Последний ответ 17.02.2020, 16:32:03
от LyizaMona
Проверка уникальности текста

Автор Glebovichu

Ответов: 9
Просмотров: 2568
Последний ответ 31.03.2013, 23:13:57
от skai
Закрытие robots.txt от просмотра пользователями

Автор terveg

Ответов: 10
Просмотров: 4247
Последний ответ 30.11.2010, 18:35:16
от dremora