Новости Joomla

Человек на GitHub ускорил Joomla в 600 раз на объёме 150к+ материалов в 1700+ категориях

Человек на GitHub ускорил Joomla в 600 раз на объёме 150к+ материалов в 1700+ категориях

👩‍💻 Человек на GitHub ускорил Joomla в 600 раз на объёме 150к+ материалов в 1700+ категориях. На старте его сайт на Joomla 3 вообще не смог обновиться на Joomla 5. Пришлось делать экспорт/импорт материалов. Проделав всё это он запустил-таки этот объём данных на Joomla 5. Тестовый скрипт грузил 200 материалов из этого объёма всего за 94 секунды ))) А главная страница с категориями грузилась 20 секунд. Добавив индекс для таблицы #__content

CREATE INDEX idx_catid_state ON #__content (catid, state);
он сократил время загрузки категорий до 1 секунды. Затем наш герой решил поковырять SQL-запрос в ArticleModel, который отвечает за выборку материалов. И решил заменить тип JOIN на STRAIGHT_JOIN для категорий.
// ->from($db->quoteName('#__content', 'a'))->from(    $db->quoteName('#__content', 'a')    . ' STRAIGHT_JOIN ' . $db->quoteName('#__categories', 'c')    . ' ON ' . $db->quoteName('c.id') . ' = ' . $db->quoteName('a.catid'))// ->join('LEFT', $db->quoteName('#__categories', 'c'), $db->quoteName('c.id') . ' = ' . $db->quoteName('a.catid'))
Что сократило загрузку 200 материалов из 150к с 94 секунд до 5. К слову сказать, боевой сайт на Joomla 3 крутится на 12CPU 64GB рамы. А все манипуляции с кодом он делает на базовом 1CPU 1GB сервере и замеры скорости даны именно для базового сервера. Но это всё в дискуссии, хотя в идеале должно вылиться в Pull Requests. Мы - Open Source сообщество, где никто никому ничего не должен. Джунгли. Но человек ищет пути оптимизации Joomla и предлагает решения. Если оказать поддержку и предложить помощь хотя бы с тестированием самых разнообразных сценариев, то возможно эти улучшения смогут войти в ядро. Пусть не быстро, пусть через несколько лет, пусть не все, но войдут. Достаточно предложить руку помощи и приложить немного усилий.
Дискуссию на GitHub можно почитать здесь.@joomlafeed#joomla #community #php

0 Пользователей и 1 Гость просматривают эту тему.
  • 4 Ответов
  • 3653 Просмотров
*

Cerhio

  • Захожу иногда
  • 109
  • 2 / 0
Наверное, это все же имеет отношение к установке и настройке магазина в большей степени, чем к чему-то еще. Неоднократно читал на сео-форумах, что в интернет-магазинах надо многие страницы закрывать от индексации принудительно. Например, корзину. Прошу поделиться опытом,  что же надо прятать в VM 1.х и как это сделать? И как быть в случае, если планируется использование sh404SEF?
« Последнее редактирование: 19.11.2011, 00:08:38 от Cerhio »
*

Cerhio

  • Захожу иногда
  • 109
  • 2 / 0
Re: что закрывать в robots.txt?
« Ответ #1 : 18.11.2011, 23:30:28 »
ой. это я запутался или автоматика на форуме так работает? хотел в ветке про настройку виртуймарта тему создать
*

ELLE

  • Глобальный модератор
  • 4505
  • 893 / 0
Re: VirtueMart: что закрывать в robots.txt ?
« Ответ #2 : 19.11.2011, 00:30:01 »
Наверное, это все же имеет отношение к установке и настройке магазина в большей степени, чем к чему-то еще. Неоднократно читал на сео-форумах, что в интернет-магазинах надо многие страницы закрывать от индексации принудительно. Например, корзину. Прошу поделиться опытом,  что же надо прятать в VM 1.х и как это сделать? И как быть в случае, если планируется использование sh404SEF?

Если стоит sh404, а VM сгенерил такие урлы и они попали в индекс типа site.ru/index.php?option=com_virtuemart  и т.д. - так вот это будет дублями и их нужно закрыть в роботсе
Спойлер
[свернуть]
первые 2 строчки разрешают индексацию картинок в VM (всегда Allow писать в начале)
предпоследние 3 строчки закрывают дубли страниц
последняя строчка закрывает косяк компонента sh404  при создании ЧПУ (может быть не только pop=0, но и другие варианты - отслеживаем и закрываем аналогично)
Если возникают доп. вопросы идем в хелп Яндекса и там выясняем
И да еще - к роботу Яндекса нужно обращаться отдельно (он у нас особенный) так- User-agent: Yandex  , ниже пишем все тоже самое.
И с соседней темой тоже желательно ознакомиться - Правильный robots.txt?
« Последнее редактирование: 19.11.2011, 22:11:06 от ELLE »
*

Cerhio

  • Захожу иногда
  • 109
  • 2 / 0
Re: VirtueMart: что закрывать в robots.txt ?
« Ответ #3 : 19.11.2011, 21:40:26 »
спасибо!

правда не совсем понял на счет удаления ссылки на корзину. Ведь если корзину можно посмотреть (человеку), значит есть для нее все равно какой-то адрес. И его подхватит sh404, и соответственно это все попадет в индекс Yandex
*

ELLE

  • Глобальный модератор
  • 4505
  • 893 / 0
Re: VirtueMart: что закрывать в robots.txt ?
« Ответ #4 : 19.11.2011, 22:14:47 »
Корзину закроете таким же образом как и все остальное.
Чтобы оставить сообщение,
Вам необходимо Войти или Зарегистрироваться
 

Роботу Googlebot заблокирован доступ в файле robots.txt

Автор illimited

Ответов: 3
Просмотров: 4071
Последний ответ 29.05.2022, 14:57:55
от web1
Правильный robots.txt? [вопросы/обсуждение]

Автор wishlight

Ответов: 447
Просмотров: 210071
Последний ответ 20.11.2021, 16:53:49
от Byzi
Не дело это - закрывать от индексации страницы с пагинацией

Автор ChaosHead

Ответов: 48
Просмотров: 11648
Последний ответ 04.11.2021, 06:44:26
от Slava77
Как лучше прописать robots.txt?

Автор web1

Ответов: 2
Просмотров: 1251
Последний ответ 25.07.2021, 21:38:12
от web1
Разные robots.txt

Автор yyyuuu

Ответов: 7
Просмотров: 1235
Последний ответ 14.01.2021, 14:06:58
от rsn