Новости Joomla

👩‍💻 Компонент "CS Афиши" для Joomla.

👩‍💻 Компонент "CS Афиши" для Joomla.

Расширение "CS Афиши" позволяет выводить список мероприятий, фильтровать их по датам, поиск по заголовкам и описанию.

В состав пакета расширений входят:
- Компонент "CS Афиши"
- Модуль "Календарь событий"
- Модуль "Предстоящие события"
- Библиотека "ImgResize"

Расширение "CS Афиши" позволяет выводить список мероприятий, фильтровать их по датам, поиск по заголовкам и описанию.

Модуль "Календарь событий" отображает предстоящие и прошедшие мероприятие на календаре, с отображением мероприятий на конкретную дату во всплывающем окне.

Модуль "Предстоящие события" показывает список предстоящий событий по порядку их наступления.

P.S. Расширение платное, но плата символическая, чисто для отработки приема платежей. Ключи без ограничения по времени, купившие сейчас - смогут обновляться без ограничений.

Разработчик - участник нашего сообщества Дмитрий Денисов (@codersite).

Страница расширения
Демо

Яндекс выпустил инструмент Видимость сайта в Алисе AI.

Яндекс выпустил инструмент Видимость сайта в Алисе AI.

С тех пор, как в поисковиках появились нейроответы ИИ, трафик на сайты стал гораздо меньше, так как пользователь стал получать информацию непосредственно на странице поисковика без перехода на сайт. Но при генерации ответа ИИ указывает источники - ссылки на сайты, информация которых была использована для генерации ответа.

Долгое время у всех был немой вопрос: "Как же теперь оценивать эффективность сайта?". Теперь этот на этот вопрос отчасти отвечает новый инструмент аналитики.
Процитируем справку Яндекса по инструменту:
На запросы пользователей в Поиске может отвечать Алиса AI. Ответы появляются в поисковой выдаче, в объектных ответах и на отдельной вкладке Поиска. В них чаще всего упоминаются страницы сайтов, на которые Алиса AI опиралась при подготовке ответа.

С помощью инструмента Видимость сайта в Алисе AI в Яндекс Вебмастере вы можете:
- узнать долю упоминаний сайта среди источников в ответах Алисы AI в Поиске и отследить динамику изменений;
- посмотреть примеры запросов, по которым страницы сайта показываются в ответах Алисы AI;
- посмотреть примеры сайтов той же тематики, которые часто упоминаются в генеративной выдаче.
Данные отображаются за последние 3 месяца и обновляются каждую неделю.

Статистика собирается только по тем запросам, по которым ваш сайт уже находится достаточно высоко в поисковой выдаче. Это позволяет анализировать видимость именно в той нише, где вы заинтересованы в продвижении, и избегать «размытия» по малозначимым для вас запросам.

Кроме того, такой подход обусловлен работой Алисы AI: она строит ответ с опорой на самые релевантные, информативные и качественные страницы, которые обычно занимают высокие позиции в Поиске.

Чтобы увидеть статистику вашего сайта в меню Яндекс.Вебмастера перейдите в раздел "Эффективность" и далее в "Показы сайта в Алисе AI".

В начале февраля 2026г. был вебинар с Михаилом Сливинским - амбассадором Поиска Яндекса, и в рамках вебинара была озвучена просьба сделать такой инструмент. Скорее всего разработка на тот момент уже велась, потому что от просьбы до релиза прошло около 2-х месяцев. В любом случае хорошо, что такая статистика появилась.

Показы сайта в Алисе AI в вашем Яндекс,Вебмастере.

@joomlafeed

👩‍💻 ИИ-админ для Joomla ближе, чем вы думаете: Joomla MCP.

👩‍💻 ИИ-админ для Joomla ближе, чем вы думаете: Joomla MCP.

В февральском номере Joomla Community Magazine в статье Evolving Joomla - Joomla CMS MCP Server: Opening the Door to AI-Powered Administration рассказывается о работе команды разработчиков над внедрением в ядро Joomla MCP-сервера.

Что такое MCP-сервер?
Последние годы всех захватывает бум ИИ-технологий. Появились ИИ-агенты - программы, устанавливаемые на сервер или компьютер, которые получают от вас запрос или задачу в человеческом виде и могут выполнять действия с файлами, ходить по сайтам, создавать сайты, программировать и т.д. Люди используют ИИ-агентов в самых разных ситуациях: от написания и проверки кода (даже там, где язык программирования не знаете совсем) до планирования путешествий и бронирования гостиницы.

ИИ-агенты могут использовать различные программные инструменты по протоколу Model Context Protocol (MCP). Для этого разработчик программы должен внедрить MCP в свой продукт или сервис. Так, например, ваш ИИ-агент может ходить по сайтам через браузер и собирать нужную информацию, управляя браузером через MCP-сервер. Или использовать функционал IDE PHP Storm для написания кода, сбора и отладки ошибок, использовать поиск PHP Storm по кодовой базе, а не простой текстовый поиск по файлам. MCP предоставляет набор функций для полноценного управления программным обеспечением.

В случае с Joomla, сервер MCP может предоставить администраторам следующие возможности:
- Автоматическое создание категорий, материалов и меню на основе карты сайта или PDF-файла.
- Создавайть SEO-оптимизированные заголовки и метаописания в пакетном режиме.
- Обновлять расширения на нескольких сайтах одновременно
- Создание посадочные страницы.

Важно отметить, что сервер MCP не задумывался как функция, доступная только «супер-администраторам». Цель инициативы — создать решение, которое будет простым в настройке, маломощным и доступным для широкого круга пользователей.

В процессе разработки точка входа Joomla (аналогично Site, Administrator, Api, Cli), которая будет работать с Streamable HTTP, необходимым для MCP. Аутентификация пока что предполагается на токенах, но затем планируется создание универсального OAuth-сервера для Joomla.
Фактические возможности MCP — инструменты, ресурсы и подсказки — реализованы в виде плагинов для обеспечения расширяемости. Таким образом ожидаем, что и сторонние разработчики смогут создавать MCP-плагины для внедрения поддержки своих расширений Joomla для работы с ИИ.

@joomlafeed

0 Пользователей и 1 Гость просматривают эту тему.
  • 10 Ответов
  • 4357 Просмотров
*

archer1981

  • Захожу иногда
  • 285
  • 13 / 0
Тюнинг robots.txt
« : 16.01.2008, 21:39:58 »
Зарегистрировался в Яндекс.Вебмастер, получил уйму полезной инфы о своём сайте. В частности:

component/    
    5882   77,5
content/   
    97   1,2
go.php?   
    179   2,3
index.php?    
    213   2,8

Вот эти разделы робот яндекса индексирует и находит там порядка 6000 "левых" страниц. Естественно, возникло желание более его туды не пущать. Верно ли я сделаю, и сработает ли, если напишу в robots.txt следующее:

Disallow: /component/
Disallow: /content/
Disallow: /go.php?/
Disallow: /ndex.php?/
http://walkspb.ru - Энциклопедия Санкт-Петербурга
*

temniy

  • Захожу иногда
  • 413
  • 85 / 9
Re: Тюнинг robots.txt
« Ответ #1 : 16.01.2008, 23:10:51 »
Disallow: /content/
Disallow: /ndex.php?/

тогда не будет индексироваться контент сайта

component - такой папки в составе Джумлы нет. Есть components, и она закрыта в роботсе.
Лучший хостинг от 1 евро!
Сервис whois  |  Домены по отличным ценам (более 80 зон, хорошие цены и консультации -> после регистрации)
*

smart

  • Администратор
  • 6478
  • 1318 / 15
  • Хочешь сделать хорошо — сделай!
Re: Тюнинг robots.txt
« Ответ #2 : 16.01.2008, 23:15:31 »
component - такой папки в составе Джумлы нет.
такая виртуальная папка получается в результате работы стандартного SEF
*

temniy

  • Захожу иногда
  • 413
  • 85 / 9
Re: Тюнинг robots.txt
« Ответ #3 : 16.01.2008, 23:19:37 »
такая виртуальная папка получается в результате работы стандартного SEF
Серьёзно? А я не знал...
Точно посмотрел. Не обращал внимания...

Ну тогда если её закрыть в роботсе, не будет индексироваться содержание компонентов, напр. галереи или гостевой. Это не правильно.
« Последнее редактирование: 16.01.2008, 23:24:29 от temniy »
Лучший хостинг от 1 евро!
Сервис whois  |  Домены по отличным ценам (более 80 зон, хорошие цены и консультации -> после регистрации)
*

archer1981

  • Захожу иногда
  • 285
  • 13 / 0
Re: Тюнинг robots.txt
« Ответ #4 : 17.01.2008, 07:49:04 »
А я вижу, что в /conponents/ индексируются комментарии как отдельные старницы. Оттуда видимо и 5000 таких страниц. И я не против, чтобы сейчас не индексировалась гостевая книга с форумом. Одно "но". Будет ли индексироваться карта сайта? Видимо её надо отдельно открыть (allow). И вообще, эти лишние 6000 страниц - это нормально? Надо с этим бороться?
http://walkspb.ru - Энциклопедия Санкт-Петербурга
*

archer1981

  • Захожу иногда
  • 285
  • 13 / 0
Re: Тюнинг robots.txt
« Ответ #5 : 17.01.2008, 07:50:47 »
Disallow: /content/
Disallow: /ndex.php?/

тогда не будет индексироваться контент сайта
Контент у меня индексируется через "виртуальные" папки (отдельная категория - отдельная папка), создаваемые OpenSEF. Яндекс.Вебмастер это хорошо показывает.
http://walkspb.ru - Энциклопедия Санкт-Петербурга
*

temniy

  • Захожу иногда
  • 413
  • 85 / 9
Re: Тюнинг robots.txt
« Ответ #6 : 17.01.2008, 12:41:32 »
тогда закрывай
Лучший хостинг от 1 евро!
Сервис whois  |  Домены по отличным ценам (более 80 зон, хорошие цены и консультации -> после регистрации)

Re: Тюнинг robots.txt
« Ответ #7 : 17.01.2008, 13:39:24 »
Вообще то в Яндексе том же можно протестировать линки.
Тоесть меняешь робот идёшь туда, перегружаешь robots.txt и подставляя линки смотришь не заклыл ли от индексации свои линки.
Кстати немножко не понял как у тебя линки выгледят ?
*

archer1981

  • Захожу иногда
  • 285
  • 13 / 0
Re: Тюнинг robots.txt
« Ответ #8 : 17.01.2008, 16:09:17 »
Линки выглядят вот так:

articles/   
    114   1,5
component/    
    5882   77,5
content/   
    97   1,2
go.php?   
    179   2,3
hotels/   
    277   3,6
index.php?    
    213   2,8
mus/   
    106   1,3
taxi/   
    87   1,1
ulpl/   
    109   1,4
zd/

Думаю тут понятно что есть "виртуальное", а что натурное. Что характерно - здесь перечислены не все виртуальные папки. Хотя их содержимое однозначно проиндексировано Яндексом, некоторые страницы в его топе сидят. Видимо количество статей в них не превышает нужного процента. Всё убивает эти 77,5% "левых" страниц.
http://walkspb.ru - Энциклопедия Санкт-Петербурга
*

archer1981

  • Захожу иногда
  • 285
  • 13 / 0
Re: Тюнинг robots.txt
« Ответ #9 : 28.01.2008, 11:55:06 »
В панели вебмастера в яндексе теперь следующая ситуация:
articles/    
    114   6,1
component/    
    394   21,4
go.php?   
    194   10,5
hotels/   
    287   15,5
most/   
    26   1,4
mus/   
    106   5,7
pam/   
    28   1,5
sad/   
    19   1,0
taxi/   
    93   5,0
ulpl/   
    110   5,9
zd/   
    339   18,4

По прежнему робот ходит в component и go.php? несмотря на присутствие в robots.txt:

Disallow: /component/
Disallow: /index.php?

Это "остаточное" явление, или робот на самом деле туда ломится без разрешения?
http://walkspb.ru - Энциклопедия Санкт-Петербурга

Re: Тюнинг robots.txt
« Ответ #10 : 29.01.2008, 15:35:32 »
Берёшь линк коммента. Отсекаешь хвост насколько возможно. И тестишь в Яше - закрыл или нет. Вроде всё просто.
Яша то что закрылось будет показывать как ошибки: "Документ запрещен в файле robots.txt"
Чтобы оставить сообщение,
Вам необходимо Войти или Зарегистрироваться
 

Как убрать из кода страницы: <meta name="robots" content="index, follow" />

Автор БаракОбама

Ответов: 11
Просмотров: 19208
Последний ответ 16.02.2015, 13:28:58
от andre46
Как спрятать файл robots.txt от посетителей

Автор gals

Ответов: 4
Просмотров: 5093
Последний ответ 19.03.2008, 14:06:02
от gals
Как дать Google robots проиндексировать матералы доступные зарегестрированным?

Автор Roman_G

Ответов: 5
Просмотров: 3210
Последний ответ 08.09.2007, 15:16:21
от yAnTar