Новости Joomla

👩‍💻 WT CDEK library v.1.3.0 - обновление PHP SDK для Joomla + CDEK.

👩‍💻 WT CDEK library v.1.3.0 - обновление PHP SDK для Joomla + CDEK.

Небольшая нативная PHP Joomla библиотека для работы с API v.2 службы доставки CDEK. Библиотека представляет собой клиент для авторизации в CDEK API по OAuth, работы с некоторыми методами API: получения ряда данных и расчета стоимости доставки. Поддерживается Joomla 4.2.7 и выше.

В пакет входят:
- библиотека Webtolk/Cdekapi
- системный плагин System - WT Cdek для хранения настроек и AJAX-интеграций
- task-плагин Task - Update WT Cdek data для обновления локальных копий справочников CDEK по расписанию
- web asset с официальным JavaScript-виджетом СДЭК

👉 v.1.3.0. Что нового?
- Полный рефакторинг библиотеки. Библиотека переработана в entity-based API с фасадом Cdek и отдельным слоем запросов. Обратная совместимость не нарушена, поэтому версия библиотеки - 1.3.0.
- Добавлена поддержка новых разделов API СДЭК. Добавлена поддержка новых разделов API СДЭК: webhooks, prealert, печатные формы, payment, passport, reverse, intakes и других сущностей.
- Улучшена интеграция с Joomla.
Улучшена интеграция с Joomla: installer script для layouts, новые поля Joomla Form для тарифов и обновлённые js виджета CDEK.
- документация библиотеки. Все методы библиотеки подробно описаны, а так же текст документации собран в отдельной папке в git репозитории и будет опубликован на сайте.

Библиотека эта нужна для разработчиков, создающих свои расширения для интеграции Joomla и курьерской службы CDEK.

Страница расширения
GitHub расширения

@joomlafeed

0 Пользователей и 1 Гость просматривают эту тему.
  • 12 Ответов
  • 5597 Просмотров
*

selenka1

  • Новичок
  • 4
  • 0 / 0
Здравствуйте! Помогите пожалуйста решить проблему.
Некоторые страницы сайта индексируются с HTTPS, совет как запретить индексацию сайта по этому протоколу я нашла, создала в основной директории сайта новый файл https.txt, с записью в нём
User-agent: *
Disallow: /
Осталось сделать запись, перенаправляющую робота поисковика при запросе через HTTPS на этот файл.
Сказали сделать запись в файле .htaccess:
RewriteEngine on
RewriteCond %{HTTPS} on
RewriteRule ^robots.txt$ https.txt
Запись нужно сделать в командном блоке, а вот где находится именно этот нужный блок в  в файле .htaccess я не знаю, ну чайник я, помогите советом, подскажите, пожалуйста,в какие строки прописать команды.
*

flyingspook

  • Живу я здесь
  • 3590
  • 247 / 9
сразу после строки
RewriteEngine on
если ее нет то прописать
она закоментирована бывает
#RewriteEngine on
убать #
*

selenka1

  • Новичок
  • 4
  • 0 / 0
Спасибо огромное!
Правильно получилось?
#####################################################
##  Can be commented out if causes errors, see notes above.
Options +FollowSymLinks
#
#  mod_rewrite in use
RewriteEngine on
RewriteCond %{HTTPS} on
RewriteRule ^robots.txt$ https.txt
########## Begin - Rewrite rules to block out some common exploits
*

selenka1

  • Новичок
  • 4
  • 0 / 0
Огромное, человеческое спасибо!
*

Vasiliy111

  • Захожу иногда
  • 248
  • 5 / 0
У меня тоже есть в индексе страницы https.
Цитировать
создала в основной директории сайта новый файл https.txt, с записью в нём
User-agent: *
Disallow: /
Я правильно понял https.txt это текстовый файл?
*

flyingspook

  • Живу я здесь
  • 3590
  • 247 / 9
Цитировать
Я правильно понял https.txt это текстовый файл?
да он создается с содержимым

User-agent: *
Disallow: /
*

Vasiliy111

  • Захожу иногда
  • 248
  • 5 / 0
Цитировать
RewriteEngine on
RewriteCond %{HTTPS} on
RewriteRule ^robots.txt$ https.txt
А это что перенаправление файла robots.txt на файл https.txt?
После такого файл robots.txt будет учитываться?
*

flyingspook

  • Живу я здесь
  • 3590
  • 247 / 9
перенаправление происходит если открывается https если http то читается robots.txt почитайте подробней про директивы в файле .htaccess там ни чего сверх естественного нету
*

Vasiliy111

  • Захожу иногда
  • 248
  • 5 / 0
я все понял! спасибо!
извините еще вопрос можно, эти изменения должны заработать сразу (все прописал как сказано, но страницы доступны по адресу https, может что то не так сделал) или после очередного посещения сайта роботом.
*

flyingspook

  • Живу я здесь
  • 3590
  • 247 / 9
страницы и будут доступны это делается для ПС чтоб они не индексировали их
а если вообще закрыть https то надо делать по другому но это думаю лишнее, ПС не будет индексировать их а этого вполне хватает
*

Vasiliy111

  • Захожу иногда
  • 248
  • 5 / 0
Все сделал как описано выше!
Приписал в .htaccess редирект:
RewriteEngine on
RewriteCond %{HTTPS} on
RewriteRule ^robots.txt$ https.txt

Создал файл https.txt

По идеи, работу всего этого можно проверить открыв файл robots.txt через https соединение, например вот так https://www.google.ru/robots.txt, если все правильно при таком обращении роботс открывается запрещающий!

А у меня почемуто открывается страница с ошибкой: 404 File not found?
Помогите пожалуйста разобраться в чем может быть проблема!
« Последнее редактирование: 01.08.2012, 15:41:23 от Vasiliy111 »
*

58Vovan

  • Осваиваюсь на форуме
  • 32
  • 0 / 1
Спасибо огромное!

сразу после строки
RewriteEngine on
если ее нет то прописать
она закоментирована бывает
#RewriteEngine on
убать #
Чтобы оставить сообщение,
Вам необходимо Войти или Зарегистрироваться
 

Как склеить www.домен.ru и домен.ru в файле .htaccess

Автор fresh3

Ответов: 18
Просмотров: 75036
Последний ответ 30.06.2024, 17:26:38
от wishlight
Как выводить в RSS Https ссылки с Ninja RSS Syndicator?

Автор kabban

Ответов: 0
Просмотров: 2804
Последний ответ 08.10.2017, 05:30:53
от kabban
Как закрыть от индексации модуль?

Автор kirill-juk

Ответов: 27
Просмотров: 5342
Последний ответ 12.11.2016, 23:00:04
от flyingspook
Как сделать на странице ссылку на скачивание файла с хостинга?

Автор lsd77777

Ответов: 19
Просмотров: 18821
Последний ответ 27.07.2016, 01:58:03
от SokoloWWW
Нужна помощь! Вместо сайта показывает белый лист в фаерфоксе и 500 ошибку в Chrome

Автор Fatima_007

Ответов: 1
Просмотров: 1995
Последний ответ 12.11.2015, 00:20:22
от wishlight