Новости Joomla

Как триггерить события для плагинов на манер Joomla 5+?В Joomla 6 должны удалить метод...

Как триггерить события для плагинов на манер Joomla 5+?В Joomla 6 должны удалить метод...

👩‍💻 Как триггерить события для плагинов на манер Joomla 5+?В Joomla 6 должны удалить метод triggerEvent(), с помощью которого раньше вызывались события для плагинов. Теперь чтобы в своём коде вызвать событие для плагина и получить от него результаты нужно:- создать объект класса события- передать в него параметры

use Joomla\CMS\Event\AbstractEvent;use Joomla\CMS\Factory;use Joomla\CMS\Plugin\PluginHelper;// Грузим плагины нужных группPluginHelper::importPlugin('system');// Создаём объект события$event = AbstractEvent::create('onAfterInitUniverse', [    'subject' => $this,    'data'    => $data, // какие-то данные    'article' => $article, // ещё материал вдовесок    'product' => $product, // и товаров подвезли]);// Триггерим событиеFactory::getApplication()->getDispatcher()->dispatch(    $event->getName(), // Тут можно строку передать 'onAfterInitUniverse'    $event);// Получаем результаты// В случае с AbstractEvent это может быть не 'result',// а что-то ещё - куда сами отдадите данные.// 2-й аргумент - значение по умолчанию, // если не получены результаты$results = $event->getArgument('result', []);
Плюсы такого подхода - вам не нужно запоминать порядок аргументов и проверять их наличие. Если вы написали свой класс события, то в плагине можно получать аргументы с помощью методов $event->getArticle(), $event->getData(), $event->getProduct() и подобными - реализуете сами под свои нужды. Если такой класс события написали, то создаёте экземпляр своего класса события и укажите его явно в аргументе eventClass
use Joomla\Component\MyComponent\Administrator\Event\MyCoolEvent;$event = MyCoolEvent::create('onAfterInitUniverse', [    'subject'    => $this,    'eventClass' => MyCoolEvent::class, // ваш класс события    'data'       => $data, // какие-то данные    'article'    => $article, // ещё материал вдовесок    'product'    => $product, // и товаров подвезли]);
Ожидаемо, что класс вашего события будет расширять AbsractEvent или другие классы событий Joomla.🙁 Есть неприятный нюанс - нельзя просто так вызывать событие и ничего не передать в аргументы. Аргумент subject обязательный. Но если вы всё-таки не хотите туда ничего передавать - передайте туда пустой stdClass или объект Joomla\registry\Registry.
@joomlafeed#joomla #php #webdev

0 Пользователей и 1 Гость просматривают эту тему.
  • 12 Ответов
  • 1214 Просмотров
*

SergioCre

  • Новичок
  • 4
  • 0 / 0
И снова robots.txt
« : 15.02.2015, 13:40:31 »
Всем привет.  !
Joomla 3.
Имеется ряд страниц, которые необходимо закрыть от индексации. К примеру:
Страница:
http://сайт.ru/index.php/home/east
Закрываю:
Disallow: /*east

Проверяю здесь:
https://webmaster.yandex.ru/robots.xml
Написано - результат - разрешен.

Не понимаю в чем ошибка. Почему Яндекс индексирует страницу? Прошу помощи.
Спасибо...
*

Webb

  • Захожу иногда
  • 304
  • 19 / 2
  • rusinmd
Re: И снова robots.txt
« Ответ #1 : 15.02.2015, 22:13:58 »
Disallow: /*/east
*

SergioCre

  • Новичок
  • 4
  • 0 / 0
Re: И снова robots.txt
« Ответ #2 : 16.02.2015, 19:32:31 »
Проверяю здесь:
https://webmaster.yandex.ru/robots.xml

/*/east и */east

результат:  разрешен.

Значит индексируется?
не понимаю в чем проблема. Все же правильно кажется сделано.
*

antony2606

  • Давно я тут
  • 633
  • 46 / 4
  • Работаем!
Re: И снова robots.txt
« Ответ #3 : 16.02.2015, 19:37:58 »
Цитировать
результат:  разрешен.

Значит индексируется?

Значит, что роботс корректно настроен, а не то, что он индексирует или не индексирует
*

SergioCre

  • Новичок
  • 4
  • 0 / 0
Re: И снова robots.txt
« Ответ #4 : 17.02.2015, 17:33:19 »
Это такая  версия или точная информация? Ведь этот инструмент на яшке сделан именно для того, что бы проверять конкретные урлы на предмет их индексирования.
*

antony2606

  • Давно я тут
  • 633
  • 46 / 4
  • Работаем!
Re: И снова robots.txt
« Ответ #5 : 17.02.2015, 21:00:20 »
Это такая  версия или точная информация? Ведь этот инструмент на яшке сделан именно для того, что бы проверять конкретные урлы на предмет их индексирования.

 Сорри, не так понял.
результат:  разрешен. - означает, что открыт к инексированию.

закройте весь index.php
*

stendapuss

  • Давно я тут
  • 945
  • 20 / 0
  • Valera Stankevich
Re: И снова robots.txt
« Ответ #6 : 17.02.2015, 22:41:00 »
Disallow: *east
*

Webb

  • Захожу иногда
  • 304
  • 19 / 2
  • rusinmd
Re: И снова robots.txt
« Ответ #7 : 17.02.2015, 23:11:59 »
Проверяю здесь:
https://webmaster.yandex.ru/robots.xml

/*/east и */east

результат:  разрешен.

Значит индексируется?
не понимаю в чем проблема. Все же правильно кажется сделано.
Где написано разрешен?
https://webmaster.yandex.ru/robots.xml
Это сервис проверки правельности заполнения роботса, проверка на ошибки в нём!
Добавь в роботс Disallow: /*/east
и проверь тут запрещенный URL https://webmaster.yandex.ru/addurl.xml
*

stendapuss

  • Давно я тут
  • 945
  • 20 / 0
  • Valera Stankevich
Re: И снова robots.txt
« Ответ #8 : 17.02.2015, 23:26:23 »
На странице, второе видео. Как проверять на Ян робот.тхт.
http://www.mani-mani-net.ru/%D0%B2%D0%B8%D0%B4%D0%B5%D0%BE-%D0%BE%D0%BD%D0%BB%D0%B0%D0%B9%D0%BD-%D1%83%D1%87%D0%B5%D0%B1%D0%BD%D0%BE%D0%B5?start=6
У меня вот такой робот. Все работает. Вставьте свои значения. На ян проверяйте. Разрешен, это разрешен к индексу. Запрешен к индексу. В низу пишет на основание чего запрещен.
Из этого робот.тхт можно скопировать только некоторые строчки. Которые подходят вам на сайт. Этот файл не полностью. Чисто для примера.
Для каждого сайта свой индивидуальный робот.тхт.
После того как закинете на сайт. Проверять надо на Яндекс вебмастер. Чтоб не закрыть чего лишнего. Или не оставить открытым. Что и как здесь закрыто работает. И у вас будет, если не будет открыто директивой Allow.
Спойлер
[свернуть]
« Последнее редактирование: 19.02.2015, 00:44:03 от stendapuss »
*

SergioCre

  • Новичок
  • 4
  • 0 / 0
Re: И снова robots.txt
« Ответ #9 : 18.02.2015, 13:45:44 »
Спасибо но ссылочка на видео некорректна. Можно еще раз в виде ссылки?
*

stendapuss

  • Давно я тут
  • 945
  • 20 / 0
  • Valera Stankevich
Re: И снова robots.txt
« Ответ #10 : 18.02.2015, 14:17:40 »
Спасибо но ссылочка на видео некорректна. Можно еще раз в виде ссылки?
Поправил ссылку, там кино еще как сделать робот.тхт и другие видео по Joomla.
*

Webb

  • Захожу иногда
  • 304
  • 19 / 2
  • rusinmd
Re: И снова robots.txt
« Ответ #11 : 18.02.2015, 20:53:02 »
FAQ : robots.txt для Joomla!

Такого роботса еще не видел  %)

ser-agent: *
- Это что за хренотень. Бот от твоего имени?
Куча постов про роботс и на этом форуме тем более, нет, надо своё придумать. И побежали все копировать.
« Последнее редактирование: 18.02.2015, 20:56:34 от Webb »
*

stendapuss

  • Давно я тут
  • 945
  • 20 / 0
  • Valera Stankevich
Re: И снова robots.txt
« Ответ #12 : 18.02.2015, 22:01:03 »
FAQ : robots.txt для Joomla!

Такого роботса еще не видел  %)

ser-agent: *
- Это что за хренотень. Бот от твоего имени?
Куча постов про роботс и на этом форуме тем более, нет, надо своё придумать. И побежали все копировать.
Для не понятливы, написано . У меня вот такой робот. Все работает. Вставьте свои значения
Для особо одаренных. User-agent скопировал в торопях ser-agent без U. Весь робот не надо копировать, надо только что подходит под ваш сайт взять. Одну строчку. И вставить в свой робот.
Так же не забыть дописать:
Host и Sitemap.
Не кому не кто не писал, что надо весь робот скопировать и вставить. Надо скопировать одну, две, три строчки...Которые подходят под определенный сайт. Или просто как пример посмотреть и вписать в свой робот.тхт.
Там видно первакласнику, что кусок робот.тхт. Нет не начала не конца.
Не надо всех считать...
Взяли скопировали и вставили. Там страниц 10 с адресами закрыто от индекса. Ду-к поймет, что весь нельзя вставить в свой робот.
Школьник поймет, что это часть робота.
Если вы Webb не поняли меня дурака с моей хрено.., уж простите. Не думал что такое можно не понять. Не думал что здесь есть первоклассники. Писал для взрослых. И возьмут этот робот.тхс и вставить на сайт.
Вы самый умный, увидели.
А остальные пол робот.тхт вставили на сайт и улыбаются.
« Последнее редактирование: 18.02.2015, 22:06:23 от stendapuss »
Чтобы оставить сообщение,
Вам необходимо Войти или Зарегистрироваться
 

Роботу Googlebot заблокирован доступ в файле robots.txt

Автор illimited

Ответов: 3
Просмотров: 3761
Последний ответ 29.05.2022, 14:57:55
от web1
Правильный robots.txt? [вопросы/обсуждение]

Автор wishlight

Ответов: 447
Просмотров: 208132
Последний ответ 20.11.2021, 16:53:49
от Byzi
Как лучше прописать robots.txt?

Автор web1

Ответов: 2
Просмотров: 1108
Последний ответ 25.07.2021, 21:38:12
от web1
Разные robots.txt

Автор yyyuuu

Ответов: 7
Просмотров: 1147
Последний ответ 14.01.2021, 14:06:58
от rsn
Языки /en/ /ru/ проблема с входом в админку и редиректит на site.r/ru/robots.txt

Автор HolySong

Ответов: 0
Просмотров: 1029
Последний ответ 10.07.2020, 13:12:46
от HolySong