Новости Joomla

SW JProjects v.2.6.0 - компонент каталога расширений для Joomla

👩‍💻 SW JProjects v.2.6.0 - компонент каталога расширений для Joomla.Компонент позволяет сделать свой мини-Joomla Extensions Directory - каталог расширений для CMS (не только для Joomla) или файлов. Есть возможность скачивания по лицензионным ключам.👩‍💻 v.2.6.0. Что нового?Этот релиз прежде всего связан с SEO и AI-оптимизацией. - Микроразметка Schema.org.Добавлен плагин микроразметки Schema.org для сущностей компонента. Для списков используется ListItem, для страницы проекта и версии - SoftwareApplication, для страницы документации - TechArticle. Плагин группы schemaorg в отличие от стандартных плагинов заполняет данные автоматически, но встраивает данные в граф сущностей микроразметки Joomla. Также исправляется одна ошибка генерируемой ядром микроразметки в зоне ответственности компонента.- Улучшение поиска по ключам. В панели администратора в списке ключей теперь можно искать по номеру заказа, email, домену, содержимому примечания к ключу.- Список ключей в админке. В списке ключей в панели администратора добавлен вывод домена и примечания- Поиск в списке проектов. Поиск в списке проектов в панели администратора стал более точным. Из полей для поиска убраны лишние поля.Компонент работает на Joomla 6 без включённого плагина обратной совместимости.Страница расширения и скачатьGitHub расширения.Joomla Extensions Directory#joomla #расширения

Человек на GitHub ускорил Joomla в 600 раз на объёме 150к+ материалов в 1700+ категориях

Человек на GitHub ускорил Joomla в 600 раз на объёме 150к+ материалов в 1700+ категориях

👩‍💻 Человек на GitHub ускорил Joomla в 600 раз на объёме 150к+ материалов в 1700+ категориях. На старте его сайт на Joomla 3 вообще не смог обновиться на Joomla 5. Пришлось делать экспорт/импорт материалов. Проделав всё это он запустил-таки этот объём данных на Joomla 5. Тестовый скрипт грузил 200 материалов из этого объёма всего за 94 секунды ))) А главная страница с категориями грузилась 20 секунд. Добавив индекс для таблицы #__content

CREATE INDEX idx_catid_state ON #__content (catid, state);
он сократил время загрузки категорий до 1 секунды. Затем наш герой решил поковырять SQL-запрос в ArticleModel, который отвечает за выборку материалов. И решил заменить тип JOIN на STRAIGHT_JOIN для категорий.
// ->from($db->quoteName('#__content', 'a'))->from(    $db->quoteName('#__content', 'a')    . ' STRAIGHT_JOIN ' . $db->quoteName('#__categories', 'c')    . ' ON ' . $db->quoteName('c.id') . ' = ' . $db->quoteName('a.catid'))// ->join('LEFT', $db->quoteName('#__categories', 'c'), $db->quoteName('c.id') . ' = ' . $db->quoteName('a.catid'))
Что сократило загрузку 200 материалов из 150к с 94 секунд до 5. К слову сказать, боевой сайт на Joomla 3 крутится на 12CPU 64GB рамы. А все манипуляции с кодом он делает на базовом 1CPU 1GB сервере и замеры скорости даны именно для базового сервера. Но это всё в дискуссии, хотя в идеале должно вылиться в Pull Requests. Мы - Open Source сообщество, где никто никому ничего не должен. Джунгли. Но человек ищет пути оптимизации Joomla и предлагает решения. Если оказать поддержку и предложить помощь хотя бы с тестированием самых разнообразных сценариев, то возможно эти улучшения смогут войти в ядро. Пусть не быстро, пусть через несколько лет, пусть не все, но войдут. Достаточно предложить руку помощи и приложить немного усилий.
Дискуссию на GitHub можно почитать здесь.@joomlafeed#joomla #community #php

0 Пользователей и 1 Гость просматривают эту тему.
  • 9 Ответов
  • 1815 Просмотров
*

iryewa

  • Осваиваюсь на форуме
  • 13
  • 0 / 0
Проблема с robots.txt
« : 30.01.2018, 05:53:01 »
Доброго времени суток. Имею сайт Joomla 3.8 .Файл robots.txt стандартный. Захожу в SeachConsole раздел Заблокированные ресурсы и вижу 50 страниц заблокированных и каждая связана от 46 до 1 страниц.
Все страницы - либо CSS, js компонентов или плагинов сторонних, которые были поставлены в процессе жизни сайта. Встает вопрос:
1. Влияет ли это на продвижение сайта, в хелпе написано что влияет.
2. Каким образом это исправлять ? Писать в robots.txt разрешения на каждую строку ? Или просто разрешить сканировать роботу всю папку /plagins/ и /modules/ ?
Типа :
Allow: /modules/mod_call_me_back_form/assets/js/jquery.maskedinput.min.js
Allow: /modules/mod_call_me_back_form/assets/js/jquery.maskedinput.min.js
Allow: /plugins/content/addtoany/addtoany.css
Но тогда ниже идет:
Disallow: /modules/
Disallow: /plugins/
Будет ли это корректно
И потом, если 3-4 строки - это еще как-то, но если строк 50 ?
*

antony2606

  • Давно я тут
  • 634
  • 46 / 4
  • Работаем!
Re: Проблема с robots.txt
« Ответ #1 : 30.01.2018, 06:37:22 »
Зачем открывать поисковикам файлы CSS и JS?! Не придумывайте себе проблем
*

kern.USR

  • Давно я тут
  • 827
  • 68 / 1
Re: Проблема с robots.txt
« Ответ #2 : 30.01.2018, 09:05:14 »
Зачем открывать поисковикам файлы CSS и JS?
Ну ка бы есть рекомендации https://1ps.ru/blog/dirs/ubiraem-oshibku-googlebot-ne-mozhet-poluchit-dostup-k-fajlam-css-i-js-na-sajte/
*

antony2606

  • Давно я тут
  • 634
  • 46 / 4
  • Работаем!
Re: Проблема с robots.txt
« Ответ #3 : 30.01.2018, 09:30:21 »
Ну ка бы есть рекомендации https://1ps.ru/blog/dirs/ubiraem-oshibku-googlebot-ne-mozhet-poluchit-dostup-k-fajlam-css-i-js-na-sajte/

Ага, прогуглил. Вообще, смысл тут есть. В таком случае пропишите директивы типа:

Allow: /*.css
Allow: /*.js
*

iryewa

  • Осваиваюсь на форуме
  • 13
  • 0 / 0
Re: Проблема с robots.txt
« Ответ #4 : 30.01.2018, 11:16:27 »
Дело в том, что инструмент, который предлагается  в
 https://1ps.ru/blog/dirs/ubiraem-oshibku-googlebot-ne-mozhet-poluchit-dostup-k-fajlam-css-i-js-na-sajte/
"несколько неудобен". При щелчке на заблокированный ресурс открывается страница связанных с этом ресурсом страниц и предлагается каждую ссылку пройти "Посмотреть как гугл-бот", затем ее отправить на сканирование. Получается 50 ресурсов по 46 страниц 2300 страниц и умножить на 3-4 операции -невозможно сосчитать.
А нет ли какого-то другого способа, менее затратного по времени ?
Спасибо что откликнулись.
*

kern.USR

  • Давно я тут
  • 827
  • 68 / 1
Re: Проблема с robots.txt
« Ответ #5 : 30.01.2018, 11:34:39 »
Если сайт небольшой, то вы можете его просканировать вот этим инструментом https://www.screamingfrog.co.uk/seo-spider/
И посмотреть, что он выдаст в этом поле, http://joxi.ru/bmo9JOBsMLdbKA
Так же там увидите, какие строки в вашем robots.txt блочат конкретный ресурс
*

iryewa

  • Осваиваюсь на форуме
  • 13
  • 0 / 0
Re: Проблема с robots.txt
« Ответ #6 : 30.01.2018, 11:52:17 »
Спасибо большое. Попробую разобраться.
*

iryewa

  • Осваиваюсь на форуме
  • 13
  • 0 / 0
Re: Проблема с robots.txt
« Ответ #7 : 30.01.2018, 13:21:12 »
Ну вообще то сайт небольшой.
http://777avto.kiev.ua
*

stendapuss

  • Давно я тут
  • 945
  • 20 / 0
  • Valera Stankevich
Re: Проблема с robots.txt
« Ответ #8 : 31.01.2018, 06:27:34 »
Allow: /modules/mod_call_me_back_form/assets/js/jquery.maskedinput.min.js
Allow: /modules/mod_call_me_back_form/assets/js/jquery.maskedinput.min.js
Allow: /plugins/content/addtoany/addtoany.css
Поменяйте местами, вы сначало разрешаете, потом закрываетее.
Disallow: /modules/
Disallow: /plugins/
типа:
Disallow: /modules/
Disallow: /plugins
Allow: /modules/mod_call_me_back_form/assets/js/jquery.maskedinput.min.js
Allow: /modules/mod_call_me_back_form/assets/js/jquery.maskedinput.min.js
Allow: /plugins/content/addtoany/addtoany.css
*

iryewa

  • Осваиваюсь на форуме
  • 13
  • 0 / 0
Re: Проблема с robots.txt
« Ответ #9 : 31.01.2018, 06:47:49 »
Спасибо за совет. Возможно это более логично. Сейчас попробую.
Чтобы оставить сообщение,
Вам необходимо Войти или Зарегистрироваться
 

Роботу Googlebot заблокирован доступ в файле robots.txt

Автор illimited

Ответов: 3
Просмотров: 4062
Последний ответ 29.05.2022, 14:57:55
от web1
Правильный robots.txt? [вопросы/обсуждение]

Автор wishlight

Ответов: 447
Просмотров: 210043
Последний ответ 20.11.2021, 16:53:49
от Byzi
Как лучше прописать robots.txt?

Автор web1

Ответов: 2
Просмотров: 1250
Последний ответ 25.07.2021, 21:38:12
от web1
Разные robots.txt

Автор yyyuuu

Ответов: 7
Просмотров: 1235
Последний ответ 14.01.2021, 14:06:58
от rsn
Проблема с поисковиком

Автор Vismuth

Ответов: 6
Просмотров: 906
Последний ответ 09.11.2020, 13:51:26
от Vismuth