Новости Joomla

Человек на GitHub ускорил Joomla в 600 раз на объёме 150к+ материалов в 1700+ категориях

Человек на GitHub ускорил Joomla в 600 раз на объёме 150к+ материалов в 1700+ категориях

👩‍💻 Человек на GitHub ускорил Joomla в 600 раз на объёме 150к+ материалов в 1700+ категориях. На старте его сайт на Joomla 3 вообще не смог обновиться на Joomla 5. Пришлось делать экспорт/импорт материалов. Проделав всё это он запустил-таки этот объём данных на Joomla 5. Тестовый скрипт грузил 200 материалов из этого объёма всего за 94 секунды ))) А главная страница с категориями грузилась 20 секунд. Добавив индекс для таблицы #__content

CREATE INDEX idx_catid_state ON #__content (catid, state);
он сократил время загрузки категорий до 1 секунды. Затем наш герой решил поковырять SQL-запрос в ArticleModel, который отвечает за выборку материалов. И решил заменить тип JOIN на STRAIGHT_JOIN для категорий.
// ->from($db->quoteName('#__content', 'a'))->from(    $db->quoteName('#__content', 'a')    . ' STRAIGHT_JOIN ' . $db->quoteName('#__categories', 'c')    . ' ON ' . $db->quoteName('c.id') . ' = ' . $db->quoteName('a.catid'))// ->join('LEFT', $db->quoteName('#__categories', 'c'), $db->quoteName('c.id') . ' = ' . $db->quoteName('a.catid'))
Что сократило загрузку 200 материалов из 150к с 94 секунд до 5. К слову сказать, боевой сайт на Joomla 3 крутится на 12CPU 64GB рамы. А все манипуляции с кодом он делает на базовом 1CPU 1GB сервере и замеры скорости даны именно для базового сервера. Но это всё в дискуссии, хотя в идеале должно вылиться в Pull Requests. Мы - Open Source сообщество, где никто никому ничего не должен. Джунгли. Но человек ищет пути оптимизации Joomla и предлагает решения. Если оказать поддержку и предложить помощь хотя бы с тестированием самых разнообразных сценариев, то возможно эти улучшения смогут войти в ядро. Пусть не быстро, пусть через несколько лет, пусть не все, но войдут. Достаточно предложить руку помощи и приложить немного усилий.
Дискуссию на GitHub можно почитать здесь.@joomlafeed#joomla #community #php

0 Пользователей и 1 Гость просматривают эту тему.
  • 5 Ответов
  • 1924 Просмотров
*

voodoomaniac

  • Захожу иногда
  • 75
  • 4 / 0
Возникла такая проблема: мой сайт Joomla + VirtueMart, я настроил в нем роутер, чтобы ссылки были нормальные, но поисковики проиндексировали ссылки старого вида. Они то рабочие - но смотрятся ужасно, да и пользы в продвижении думаю не добавляют. Сейчас я закрыл весь сайт для индексации, жду пока из индекса все страницы уберут, чтобы начать "с чистого листа". Теперь вопрос, если я в robots.txt запрещу к индексации весь сайт через Disallow: / , а через Allow: добавлю все ссылки что у мну есть в sitemap, их около 140, это нормальное решение? Или есть что-то получше? Просто не хочу чтобы старые странички вернулись в индекс, и хочется более строго контролировать все что попадает в индекс.
*

Виталик

  • Завсегдатай
  • 1244
  • 130 / 0
Re: Можно ли так использовать robots.txt?
« Ответ #1 : 19.03.2010, 18:59:41 »
если старые все через index.php?, то только его достаточно закрыть
*

voodoomaniac

  • Захожу иногда
  • 75
  • 4 / 0
Re: Можно ли так использовать robots.txt?
« Ответ #2 : 19.03.2010, 19:55:07 »
к сожалению - не все, а как правильно закрыть  index.php?
*

voland

  • Легенда
  • 11026
  • 588 / 112
  • Эта строка съедает место на вашем мониторе
Re: Можно ли так использовать robots.txt?
« Ответ #3 : 19.03.2010, 21:42:29 »
Сайт молодой? Нет ссылок на старые странички? Тогда можно так, если спешить некуда.
*

voodoomaniac

  • Захожу иногда
  • 75
  • 4 / 0
Re: Можно ли так использовать robots.txt?
« Ответ #4 : 20.03.2010, 00:07:59 »
Сайт молодой, пробыл под индексацией месяц где-то! Что значит ссылок на старые странички? Делать роботс.тхт с описанием всех страниц не тупо? voland, может какой-то другой способ есть?
*

voland

  • Легенда
  • 11026
  • 588 / 112
  • Эта строка съедает место на вашем мониторе
Чтобы оставить сообщение,
Вам необходимо Войти или Зарегистрироваться
 

Каким плагином можно закрыть внешние ссылки?

Автор gorbi_U

Ответов: 4
Просмотров: 2925
Последний ответ 25.02.2023, 02:29:35
от olegon
Роботу Googlebot заблокирован доступ в файле robots.txt

Автор illimited

Ответов: 3
Просмотров: 4071
Последний ответ 29.05.2022, 14:57:55
от web1
Правильный robots.txt? [вопросы/обсуждение]

Автор wishlight

Ответов: 447
Просмотров: 210069
Последний ответ 20.11.2021, 16:53:49
от Byzi
Как лучше прописать robots.txt?

Автор web1

Ответов: 2
Просмотров: 1251
Последний ответ 25.07.2021, 21:38:12
от web1
Разные robots.txt

Автор yyyuuu

Ответов: 7
Просмотров: 1235
Последний ответ 14.01.2021, 14:06:58
от rsn