Новости Joomla

👩‍💻 WT CDEK library v.1.3.0 - обновление PHP SDK для Joomla + CDEK.

👩‍💻 WT CDEK library v.1.3.0 - обновление PHP SDK для Joomla + CDEK.

Небольшая нативная PHP Joomla библиотека для работы с API v.2 службы доставки CDEK. Библиотека представляет собой клиент для авторизации в CDEK API по OAuth, работы с некоторыми методами API: получения ряда данных и расчета стоимости доставки. Поддерживается Joomla 4.2.7 и выше.

В пакет входят:
- библиотека Webtolk/Cdekapi
- системный плагин System - WT Cdek для хранения настроек и AJAX-интеграций
- task-плагин Task - Update WT Cdek data для обновления локальных копий справочников CDEK по расписанию
- web asset с официальным JavaScript-виджетом СДЭК

👉 v.1.3.0. Что нового?
- Полный рефакторинг библиотеки. Библиотека переработана в entity-based API с фасадом Cdek и отдельным слоем запросов. Обратная совместимость не нарушена, поэтому версия библиотеки - 1.3.0.
- Добавлена поддержка новых разделов API СДЭК. Добавлена поддержка новых разделов API СДЭК: webhooks, prealert, печатные формы, payment, passport, reverse, intakes и других сущностей.
- Улучшена интеграция с Joomla.
Улучшена интеграция с Joomla: installer script для layouts, новые поля Joomla Form для тарифов и обновлённые js виджета CDEK.
- документация библиотеки. Все методы библиотеки подробно описаны, а так же текст документации собран в отдельной папке в git репозитории и будет опубликован на сайте.

Библиотека эта нужна для разработчиков, создающих свои расширения для интеграции Joomla и курьерской службы CDEK.

Страница расширения
GitHub расширения

@joomlafeed

0 Пользователей и 1 Гость просматривают эту тему.
  • 1 Ответов
  • 1908 Просмотров
*

Goddanus

  • Осваиваюсь на форуме
  • 20
  • 1 / 0
Добрый день!

Joomla! 1.5.17, вкл. штатное SEO с использ. mod_rewrite.
robots.txt штатный - принят и Яндексом и Google – оба указали, что ошибок нет.

В robots.txt черным по белому запрещено:

User-agent: *
Disallow: /components/
Disallow: /plugins/

Однако, несмотря на запреты, в поиск Google попали страницы с каталогами в адресе /component/search/ и /plugins/content/.

Страницы каталога /plugins/ стоят на месте, и их пару штук (можно запросить удаление в Google и они ведут на чистый index.html), а вот кол-во страниц поиска уже перевалило за десяток и продолжает неумолимо расти.

Отсюда вопрос: как запретить индексацию уже запрещенных в robots.txt каталогов?

Спасибо.
*

Goddanus

  • Осваиваюсь на форуме
  • 20
  • 1 / 0
Прошу простить, немного ошибся.
В robots.txt запрет на Disallow: /components/, а в поиск Google попали страницы с каталогом в адресе /component/ (без -s- на конце), так что, в данном случае всё нормально.
Адреса /component/search/ пробую из поиска выкурить посредством запрета в robots.txt: Disallow: /search/.
Сегодня только внес изменения в robots.txt, так что подождем, посмотрим как быстро отреагирует Google, и отреагирует ли. Количество страниц /component/search/ растет - и это плохо.

А вот с /plugins/content/ ошибки точно нет. В robots.txt запрет на Disallow: /plugins/, и в поиске 3 стр. из запрещенного каталога - /plugins/content/.

Вопрос, почему не сработал запрет, и как долго запрещенные адреса будут находится в поиске?
Чтобы оставить сообщение,
Вам необходимо Войти или Зарегистрироваться
 

Редирект для страницы с добавлением кода языка

Автор zeus07

Ответов: 0
Просмотров: 3382
Последний ответ 26.06.2023, 11:25:10
от zeus07
Роботу Googlebot заблокирован доступ в файле robots.txt

Автор illimited

Ответов: 3
Просмотров: 4366
Последний ответ 29.05.2022, 14:57:55
от web1
Google не индексирует страницы через ajax ссылки

Автор illimited

Ответов: 0
Просмотров: 2487
Последний ответ 31.03.2022, 23:53:05
от illimited
Правильный robots.txt? [вопросы/обсуждение]

Автор wishlight

Ответов: 447
Просмотров: 214951
Последний ответ 20.11.2021, 16:53:49
от Byzi
Не дело это - закрывать от индексации страницы с пагинацией

Автор ChaosHead

Ответов: 48
Просмотров: 12450
Последний ответ 04.11.2021, 06:44:26
от Slava77