Новости Joomla

👩‍💻 Компонент "CS Афиши" для Joomla.

👩‍💻 Компонент "CS Афиши" для Joomla.

Расширение "CS Афиши" позволяет выводить список мероприятий, фильтровать их по датам, поиск по заголовкам и описанию.

В состав пакета расширений входят:
- Компонент "CS Афиши"
- Модуль "Календарь событий"
- Модуль "Предстоящие события"
- Библиотека "ImgResize"

Расширение "CS Афиши" позволяет выводить список мероприятий, фильтровать их по датам, поиск по заголовкам и описанию.

Модуль "Календарь событий" отображает предстоящие и прошедшие мероприятие на календаре, с отображением мероприятий на конкретную дату во всплывающем окне.

Модуль "Предстоящие события" показывает список предстоящий событий по порядку их наступления.

P.S. Расширение платное, но плата символическая, чисто для отработки приема платежей. Ключи без ограничения по времени, купившие сейчас - смогут обновляться без ограничений.

Разработчик - участник нашего сообщества Дмитрий Денисов (@codersite).

Страница расширения
Демо

Яндекс выпустил инструмент Видимость сайта в Алисе AI.

Яндекс выпустил инструмент Видимость сайта в Алисе AI.

С тех пор, как в поисковиках появились нейроответы ИИ, трафик на сайты стал гораздо меньше, так как пользователь стал получать информацию непосредственно на странице поисковика без перехода на сайт. Но при генерации ответа ИИ указывает источники - ссылки на сайты, информация которых была использована для генерации ответа.

Долгое время у всех был немой вопрос: "Как же теперь оценивать эффективность сайта?". Теперь этот на этот вопрос отчасти отвечает новый инструмент аналитики.
Процитируем справку Яндекса по инструменту:
На запросы пользователей в Поиске может отвечать Алиса AI. Ответы появляются в поисковой выдаче, в объектных ответах и на отдельной вкладке Поиска. В них чаще всего упоминаются страницы сайтов, на которые Алиса AI опиралась при подготовке ответа.

С помощью инструмента Видимость сайта в Алисе AI в Яндекс Вебмастере вы можете:
- узнать долю упоминаний сайта среди источников в ответах Алисы AI в Поиске и отследить динамику изменений;
- посмотреть примеры запросов, по которым страницы сайта показываются в ответах Алисы AI;
- посмотреть примеры сайтов той же тематики, которые часто упоминаются в генеративной выдаче.
Данные отображаются за последние 3 месяца и обновляются каждую неделю.

Статистика собирается только по тем запросам, по которым ваш сайт уже находится достаточно высоко в поисковой выдаче. Это позволяет анализировать видимость именно в той нише, где вы заинтересованы в продвижении, и избегать «размытия» по малозначимым для вас запросам.

Кроме того, такой подход обусловлен работой Алисы AI: она строит ответ с опорой на самые релевантные, информативные и качественные страницы, которые обычно занимают высокие позиции в Поиске.

Чтобы увидеть статистику вашего сайта в меню Яндекс.Вебмастера перейдите в раздел "Эффективность" и далее в "Показы сайта в Алисе AI".

В начале февраля 2026г. был вебинар с Михаилом Сливинским - амбассадором Поиска Яндекса, и в рамках вебинара была озвучена просьба сделать такой инструмент. Скорее всего разработка на тот момент уже велась, потому что от просьбы до релиза прошло около 2-х месяцев. В любом случае хорошо, что такая статистика появилась.

Показы сайта в Алисе AI в вашем Яндекс,Вебмастере.

@joomlafeed

👩‍💻 ИИ-админ для Joomla ближе, чем вы думаете: Joomla MCP.

👩‍💻 ИИ-админ для Joomla ближе, чем вы думаете: Joomla MCP.

В февральском номере Joomla Community Magazine в статье Evolving Joomla - Joomla CMS MCP Server: Opening the Door to AI-Powered Administration рассказывается о работе команды разработчиков над внедрением в ядро Joomla MCP-сервера.

Что такое MCP-сервер?
Последние годы всех захватывает бум ИИ-технологий. Появились ИИ-агенты - программы, устанавливаемые на сервер или компьютер, которые получают от вас запрос или задачу в человеческом виде и могут выполнять действия с файлами, ходить по сайтам, создавать сайты, программировать и т.д. Люди используют ИИ-агентов в самых разных ситуациях: от написания и проверки кода (даже там, где язык программирования не знаете совсем) до планирования путешествий и бронирования гостиницы.

ИИ-агенты могут использовать различные программные инструменты по протоколу Model Context Protocol (MCP). Для этого разработчик программы должен внедрить MCP в свой продукт или сервис. Так, например, ваш ИИ-агент может ходить по сайтам через браузер и собирать нужную информацию, управляя браузером через MCP-сервер. Или использовать функционал IDE PHP Storm для написания кода, сбора и отладки ошибок, использовать поиск PHP Storm по кодовой базе, а не простой текстовый поиск по файлам. MCP предоставляет набор функций для полноценного управления программным обеспечением.

В случае с Joomla, сервер MCP может предоставить администраторам следующие возможности:
- Автоматическое создание категорий, материалов и меню на основе карты сайта или PDF-файла.
- Создавайть SEO-оптимизированные заголовки и метаописания в пакетном режиме.
- Обновлять расширения на нескольких сайтах одновременно
- Создание посадочные страницы.

Важно отметить, что сервер MCP не задумывался как функция, доступная только «супер-администраторам». Цель инициативы — создать решение, которое будет простым в настройке, маломощным и доступным для широкого круга пользователей.

В процессе разработки точка входа Joomla (аналогично Site, Administrator, Api, Cli), которая будет работать с Streamable HTTP, необходимым для MCP. Аутентификация пока что предполагается на токенах, но затем планируется создание универсального OAuth-сервера для Joomla.
Фактические возможности MCP — инструменты, ресурсы и подсказки — реализованы в виде плагинов для обеспечения расширяемости. Таким образом ожидаем, что и сторонние разработчики смогут создавать MCP-плагины для внедрения поддержки своих расширений Joomla для работы с ИИ.

@joomlafeed

0 Пользователей и 1 Гость просматривают эту тему.
  • 18 Ответов
  • 1593 Просмотров
*

Adrian1111

  • Захожу иногда
  • 271
  • 1 / 0
Здравствуйте!
Несколько лет все было гуд и тут вдруг Google понаходил дубли.

Вот роботс:

Спойлер
[свернуть]

Google в вебмастерсе ругается на такие вот дубли страниц:

/component/content/?view=featured&start=25
/component/content/?view=featured
/component/content/article/3-mainnews/86-nazvanie-stati.html
/component/content/article/3-news/mainnews/86-nazvanie-stati.html
/component/content/article/9-news/125-nazvanie-stati.html
/shops/30-nazvanie-stati.html
/aboutus/3-mainnews/66-nazvanie-stati.html
/home.html
/aboutus/48-nazvanie-stati.html
/catalogue/9-news/40-nazvanie-stati.html


Они же все закрыты? ведь так?
*

neogeek

  • Захожу иногда
  • 196
  • 21 / 2
*

Adrian1111

  • Захожу иногда
  • 271
  • 1 / 0
не так
а как нужно?

Яндекс вебмастер показывает что все закрыто от индексации кроме последнего дубля -  /catalogue/9-news/40-nazvanie-stati.html
Для Google, я так понимаю, смысла прописывать в роботс нет? Он его игнорирует...слышал об этом, но впервые сталкиваюсь на практике...
*

Gosha5767

  • Захожу иногда
  • 487
  • 27 / 0
В Google есть "Инструмент проверки файла robots.txt"
Вставте все ваши урлы и осуществите проверку, будет ясно закрыты они или нет.
Чистка сайта от дублей в Яндекс и Google.
Миграция Joomla 1.5 до Joomla 3.хх
Доработка сайта
*

Adrian1111

  • Захожу иногда
  • 271
  • 1 / 0
В Google есть "Инструмент проверки файла robots.txt"
Вставте все ваши урлы и осуществите проверку, будет ясно закрыты они или нет.

Google показывает что они все открыты.
Яндекс показывает, что закрыты.

То есть, как я понимаю, правила в роботс прописаны верно. Просто Google их игнорирует.
Ссылок на эти дубли в интернете нет. Как их Google нашел - черт знает. Но это уже другой вопрос.
Сейчас для меня важно понять как с ними справится. Допустим,  на имеющиеся дубли я пропишу 301 редирект. Но это нужно будет делать каждый раз, когда будут появляться новые страницы на сайте, потому-что robots.txt не работает. ПЕчалька...
*

neogeek

  • Захожу иногда
  • 196
  • 21 / 2
*

Gosha5767

  • Захожу иногда
  • 487
  • 27 / 0
Правил для этих URL для запрета нет, Google правильно говорит.
Вот это правило вставте и проверьте, должно закрыть весь каталог
Disallow: /component/*
Чистка сайта от дублей в Яндекс и Google.
Миграция Joomla 1.5 до Joomla 3.хх
Доработка сайта
*

Adrian1111

  • Захожу иногда
  • 271
  • 1 / 0
Disallow: /component/content*

Disallow: /component/*

в обоих случаях проверка роботс показывает, что дубли доступны для робота.
*

Adrian1111

  • Захожу иногда
  • 271
  • 1 / 0
Добавил еще так: Disallow: /component/content/article/9-news/*

все равно доступны страницы
*

Adrian1111

  • Захожу иногда
  • 271
  • 1 / 0
Подумал, может Google показывает что урлы доступны, так как они уже проиндексированы ним.

Проверил только что добавленную страницу на сайт изменив ее URL на то же, который у дублей страниц. Она еще не в индексе и Google про нее не знает. Но все равно показывает, что она доступна.
*

Adrian1111

  • Захожу иногда
  • 271
  • 1 / 0
Нашел причину появления дублей - компонент для комментирования JComments в каждом комментарии ставит символ решетки, в котором как раз ссылки генерятся типа "/component/content/article/9-news/". Оттуда, по ходу, и остальные дубли полезли.
А Google условия в robots.txt по видимому игнорирует из-за того, что на сайте ссылки вот такие на запрещенные страницы стоят.
*

Gosha5767

  • Захожу иногда
  • 487
  • 27 / 0
Вы все по порядку делали?
Вы добавили правило:
Disallow: /component/*
В файл robots.txt, который на хосинге
А затем обновили в Google вебмастере страницу и проверили   "Инструмент проверки файла robots.txt"
вот эти урл:
/component/content/?view=featured&start=25
/component/content/?view=featured
/component/content/article/3-mainnews/86-nazvanie-stati.html
/component/content/article/3-news/mainnews/86-nazvanie-stati.html
/component/content/article/9-news/125-nazvanie-stati.html
И Google выдает: Доступен - такого не может быть.
Чистка сайта от дублей в Яндекс и Google.
Миграция Joomla 1.5 до Joomla 3.хх
Доработка сайта
*

Adrian1111

  • Захожу иногда
  • 271
  • 1 / 0
Вы все по порядку делали?
Вы добавили правило:
Disallow: /component/*
В файл robots.txt, который на хосинге
А затем обновили в Google вебмастере страницу и проверили   "Инструмент проверки файла robots.txt"
вот эти урл:
/component/content/?view=featured&start=25
/component/content/?view=featured
/component/content/article/3-mainnews/86-nazvanie-stati.html
/component/content/article/3-news/mainnews/86-nazvanie-stati.html
/component/content/article/9-news/125-nazvanie-stati.html
И Google выдает: Доступен - такого не может быть.

Да. Я проверил. Google подхватил обновленный роботс.
При проверке пишет, что все урлы доступны.

« Последнее редактирование: 26.08.2015, 17:30:23 от Adrian1111 »
*

Gosha5767

  • Захожу иногда
  • 487
  • 27 / 0
Посмотрел и проверил у себя
Надо слеш у урлов убрать, так как в начале стоит слеш
то есть так надо проверять:
component/content/?view=featured&start=25
component/content/?view=featured
component/content/article/3-mainnews/86-nazvanie-stati.html
component/content/article/3-news/mainnews/86-nazvanie-stati.html
component/content/article/9-news/125-nazvanie-stati.html
Чистка сайта от дублей в Яндекс и Google.
Миграция Joomla 1.5 до Joomla 3.хх
Доработка сайта
*

Adrian1111

  • Захожу иногда
  • 271
  • 1 / 0
*

Gosha5767

  • Захожу иногда
  • 487
  • 27 / 0
У меня все нормально, все URL недоступны.
Можете мой роботс попробуете временно поставить, и проверить
Спойлер
[свернуть]
Чистка сайта от дублей в Яндекс и Google.
Миграция Joomla 1.5 до Joomla 3.хх
Доработка сайта
*

Adrian1111

  • Захожу иногда
  • 271
  • 1 / 0
Бесполезно.
Те же правила у меня в роботсе.
Яндекс с моим прежним роботсом спокойно показывал, что дубли закрыты от индексации.

Это мутки Google.

Я отключил компонент, генерирующий дубли и добавил все дубли-урлы на удаление в гугл-вебмастере. Надеюсь, они не вернутся.
Хотя, для пущей уверенности наверное стоит прописать им 301 редирект.
*

Gosha5767

  • Захожу иногда
  • 487
  • 27 / 0
Уберите из файла роботс:
User-Agent: Googlebot
И все будет как надо.
Чистка сайта от дублей в Яндекс и Google.
Миграция Joomla 1.5 до Joomla 3.хх
Доработка сайта
*

Adrian1111

  • Захожу иногда
  • 271
  • 1 / 0
Уберите из файла роботс:
User-Agent: Googlebot
И все будет как надо.

красава
Чтобы оставить сообщение,
Вам необходимо Войти или Зарегистрироваться
 

Форма для добавления данных в Google Sheets

Автор zigzagrus

Ответов: 2
Просмотров: 2440
Последний ответ 07.11.2024, 12:03:12
от zigzagrus
В Google Chrome некорректно работает админка

Автор Dorotar

Ответов: 1
Просмотров: 1981
Последний ответ 09.02.2020, 10:49:15
от Dorotar
Дубли mail.site.ru

Автор clareo

Ответов: 3
Просмотров: 1518
Последний ответ 08.09.2018, 04:40:12
от draff
дубли страниц

Автор abonnent

Ответов: 3
Просмотров: 1401
Последний ответ 12.10.2017, 14:15:13
от SeBun
Дубли и Яндекс маркет

Автор derenikp

Ответов: 0
Просмотров: 1430
Последний ответ 04.01.2017, 19:35:13
от derenikp