Новости Joomla

Человек на GitHub ускорил Joomla в 600 раз на объёме 150к+ материалов в 1700+ категориях

Человек на GitHub ускорил Joomla в 600 раз на объёме 150к+ материалов в 1700+ категориях

👩‍💻 Человек на GitHub ускорил Joomla в 600 раз на объёме 150к+ материалов в 1700+ категориях. На старте его сайт на Joomla 3 вообще не смог обновиться на Joomla 5. Пришлось делать экспорт/импорт материалов. Проделав всё это он запустил-таки этот объём данных на Joomla 5. Тестовый скрипт грузил 200 материалов из этого объёма всего за 94 секунды ))) А главная страница с категориями грузилась 20 секунд. Добавив индекс для таблицы #__content

CREATE INDEX idx_catid_state ON #__content (catid, state);
он сократил время загрузки категорий до 1 секунды. Затем наш герой решил поковырять SQL-запрос в ArticleModel, который отвечает за выборку материалов. И решил заменить тип JOIN на STRAIGHT_JOIN для категорий.
// ->from($db->quoteName('#__content', 'a'))->from(    $db->quoteName('#__content', 'a')    . ' STRAIGHT_JOIN ' . $db->quoteName('#__categories', 'c')    . ' ON ' . $db->quoteName('c.id') . ' = ' . $db->quoteName('a.catid'))// ->join('LEFT', $db->quoteName('#__categories', 'c'), $db->quoteName('c.id') . ' = ' . $db->quoteName('a.catid'))
Что сократило загрузку 200 материалов из 150к с 94 секунд до 5. К слову сказать, боевой сайт на Joomla 3 крутится на 12CPU 64GB рамы. А все манипуляции с кодом он делает на базовом 1CPU 1GB сервере и замеры скорости даны именно для базового сервера. Но это всё в дискуссии, хотя в идеале должно вылиться в Pull Requests. Мы - Open Source сообщество, где никто никому ничего не должен. Джунгли. Но человек ищет пути оптимизации Joomla и предлагает решения. Если оказать поддержку и предложить помощь хотя бы с тестированием самых разнообразных сценариев, то возможно эти улучшения смогут войти в ядро. Пусть не быстро, пусть через несколько лет, пусть не все, но войдут. Достаточно предложить руку помощи и приложить немного усилий.
Дискуссию на GitHub можно почитать здесь.@joomlafeed#joomla #community #php

0 Пользователей и 1 Гость просматривают эту тему.
  • 3 Ответов
  • 1622 Просмотров
*

koshsh

  • Захожу иногда
  • 278
  • 8 / 0
Здравствуйте!
Сделал сайт на трех языках, но что-то поисковики не торопятся индексировать его, сделал связи всех страниц, разрешил добавлять мета теги rel="alternate"

получилось так: к примеру на языке  http://hsrcpa.ru/en/ появляется:

<link href="http://hsrcpa.ru/" rel="alternate" hreflang="ru-RU">
<link href="http://hsrcpa.ru/zh/" rel="alternate" hreflang="zh-CN">
 
- Нужно ли как-то дополнительно уведомить об этом robots.txt?
- Нужно ли как-то дополнительно уведомить об этом httpacces?
- Нужно ли делать карту сайта на которой прописывать все пункты всех языков?
- Поделитесь кто как делает и как вообще реагируют поисковики на такие мультиязычные сайты?

Спасибо!
*

koshsh

  • Захожу иногда
  • 278
  • 8 / 0
Такое чувство что у всех тут либо свои супер тайные секреты, либо никто не использует многоязычную систему  :(
*

koshsh

  • Захожу иногда
  • 278
  • 8 / 0
*

Hotos

  • Осваиваюсь на форуме
  • 20
  • 1 / 0
  • Abyssus abyssum invocat
Могу сказать только за robots.txt

Вне зависимости от мультиязычности сайта - там ничего не надо менять, все внутренние директивы там существуют только для поисковых роботов
Чтобы оставить сообщение,
Вам необходимо Войти или Зарегистрироваться
 

Как настроить редирект через маску содержащую часть пути?

Автор Slava77

Ответов: 0
Просмотров: 3106
Последний ответ 18.01.2023, 03:17:15
от Slava77
Роботу Googlebot заблокирован доступ в файле robots.txt

Автор illimited

Ответов: 3
Просмотров: 4064
Последний ответ 29.05.2022, 14:57:55
от web1
Как изменить в поисковике на сайте имя домена?

Автор alex-morebook

Ответов: 2
Просмотров: 1174
Последний ответ 20.11.2021, 17:51:48
от Byzi
Правильный robots.txt? [вопросы/обсуждение]

Автор wishlight

Ответов: 447
Просмотров: 210062
Последний ответ 20.11.2021, 16:53:49
от Byzi
Как лучше прописать robots.txt?

Автор web1

Ответов: 2
Просмотров: 1251
Последний ответ 25.07.2021, 21:38:12
от web1