Новости Joomla

👩‍💻 WT CDEK library v.1.3.0 - обновление PHP SDK для Joomla + CDEK.

👩‍💻 WT CDEK library v.1.3.0 - обновление PHP SDK для Joomla + CDEK.

Небольшая нативная PHP Joomla библиотека для работы с API v.2 службы доставки CDEK. Библиотека представляет собой клиент для авторизации в CDEK API по OAuth, работы с некоторыми методами API: получения ряда данных и расчета стоимости доставки. Поддерживается Joomla 4.2.7 и выше.

В пакет входят:
- библиотека Webtolk/Cdekapi
- системный плагин System - WT Cdek для хранения настроек и AJAX-интеграций
- task-плагин Task - Update WT Cdek data для обновления локальных копий справочников CDEK по расписанию
- web asset с официальным JavaScript-виджетом СДЭК

👉 v.1.3.0. Что нового?
- Полный рефакторинг библиотеки. Библиотека переработана в entity-based API с фасадом Cdek и отдельным слоем запросов. Обратная совместимость не нарушена, поэтому версия библиотеки - 1.3.0.
- Добавлена поддержка новых разделов API СДЭК. Добавлена поддержка новых разделов API СДЭК: webhooks, prealert, печатные формы, payment, passport, reverse, intakes и других сущностей.
- Улучшена интеграция с Joomla.
Улучшена интеграция с Joomla: installer script для layouts, новые поля Joomla Form для тарифов и обновлённые js виджета CDEK.
- документация библиотеки. Все методы библиотеки подробно описаны, а так же текст документации собран в отдельной папке в git репозитории и будет опубликован на сайте.

Библиотека эта нужна для разработчиков, создающих свои расширения для интеграции Joomla и курьерской службы CDEK.

Страница расширения
GitHub расширения

@joomlafeed

0 Пользователей и 1 Гость просматривают эту тему.
  • 10 Ответов
  • 17977 Просмотров
*

Илюшко

  • Осваиваюсь на форуме
  • 20
  • 0 / 0
В Joomla 1.5 при создании материала в параметрах "Мета-данные" имеется "Параметр Robots", что это за параметр на что влияет если вообще влияет и какие значения допустимы для этого параметра?
« Последнее редактирование: 20.10.2008, 03:18:35 от smart »
*

smart

  • Администратор
  • 6478
  • 1318 / 15
  • Хочешь сделать хорошо — сделай!
Данный параметр позволяет задавать специфические для данной страницы правила индексации поисковыми роботами (аналог robots.txt, но для конкретной страницы). Допустимые значения:

  • all - индексировать, и переходить по ссылкам
  • index,nofollow - индексировать, но не переходить по ссылкам
  • noidex,nofollow - не индексировать и не переходить по ссылкам
  • noindex,follow - не индексировать, но переходить по ссылкам

При этом, следует учитывать тот факт, что, использование nofollow запрещает переход по ВСЕМ ссылкам на странице, т.е. страница для поискового робота становится тупиковой. В этом случае для "лишних" ссылок лучше использовать атрибут rel="nofollow" в коде самих ссылок.
*

Shurikus

  • Осваиваюсь на форуме
  • 16
  • 1 / 0
А если просто noindex? без nofollow или follow, заполнил именно noindex без всего остального, результат будет или переделывать надо?
в поиске оказалось 2 варианта страниц благодаря sh404SEF, один из из вариантов закрываю вписывая noindex, поможет?
*

ELLE

  • Глобальный модератор
  • 4505
  • 893 / 0
если указать только noindex, то по-умолчанию будет noindex,follow
загляните в исходный код - убедитесь в этом..
*

Shurikus

  • Осваиваюсь на форуме
  • 16
  • 1 / 0
<meta name="robots" content="noindex" />
*

Shurikus

  • Осваиваюсь на форуме
  • 16
  • 1 / 0
я это проставляю не через страницу материала а через sh404, нахожу ту ссылку которая мне не нужна и проставляю там noindex, в коде страницы выходит <meta name="robots" content="noindex" />
Может просто noindex не прокатить?  страниц сотни, пока что на пол пути может переделать?
в компоненте такое же окошко как и на странице материала, Тег роботов (robots), туда и вписываю...
*

ELLE

  • Глобальный модератор
  • 4505
  • 893 / 0
а что за ссылки-дубли, может у них что-то общее есть? тогда их можно одной (несколькими строчками) в robots.txt закрыть.
еще как вариант указать rel=canonical
*

Shurikus

  • Осваиваюсь на форуме
  • 16
  • 1 / 0
там все сложно)))
есть несколько разделов на сайте, например расценки, рекомендации, вопросы ответы, у них рубрикаторы почти одинаковые, урле выглядит как remont-doma/recomendacii, remont-doma/voprosotveti. remont-doma/rascenki
Общее у тех дублей только remont-doma, но только в одной рубрике, если в роботс впишу remont-doma, остальные рубрики тоже попадут.
Я уже в общем то заканчиваю, порядка 300 страниц закрыл вручную тегом noindex, главное что бы робот правильно понял.
*

Shurikus

  • Осваиваюсь на форуме
  • 16
  • 1 / 0
Вы так и не ответили, <meta name="robots" content="noindex" /> закроет от индексе или обязательно должно быть follow или nofollow?
*

ELLE

  • Глобальный модератор
  • 4505
  • 893 / 0
*

Shurikus

  • Осваиваюсь на форуме
  • 16
  • 1 / 0
Спасибо, вы меня успокоили )
Чтобы оставить сообщение,
Вам необходимо Войти или Зарегистрироваться
 

WT IndexNow для Joomla - отправка страниц сайта на переиндексацию в поисковики

Автор sergeytolkachyov

Ответов: 1
Просмотров: 1665
Последний ответ 27.01.2026, 12:30:44
от sergeytolkachyov
WT SEO Meta templates плагин сео-шаблонов для Joomla

Автор sergeytolkachyov

Ответов: 26
Просмотров: 7063
Последний ответ 17.10.2025, 16:00:36
от sergeytolkachyov
Нет позиций в Google Joomla 3

Автор Benderalfa

Ответов: 1
Просмотров: 4506
Последний ответ 20.09.2022, 20:53:56
от darkghost
Роботу Googlebot заблокирован доступ в файле robots.txt

Автор illimited

Ответов: 3
Просмотров: 4364
Последний ответ 29.05.2022, 14:57:55
от web1
Расширенные описания страниц в Joomla (микроданные, микроформаты, RDFa, schema.org)

Автор ELLE

Ответов: 151
Просмотров: 118519
Последний ответ 20.11.2021, 18:15:42
от Byzi