Новости Joomla

Человек на GitHub ускорил Joomla в 600 раз на объёме 150к+ материалов в 1700+ категориях

Человек на GitHub ускорил Joomla в 600 раз на объёме 150к+ материалов в 1700+ категориях

👩‍💻 Человек на GitHub ускорил Joomla в 600 раз на объёме 150к+ материалов в 1700+ категориях. На старте его сайт на Joomla 3 вообще не смог обновиться на Joomla 5. Пришлось делать экспорт/импорт материалов. Проделав всё это он запустил-таки этот объём данных на Joomla 5. Тестовый скрипт грузил 200 материалов из этого объёма всего за 94 секунды ))) А главная страница с категориями грузилась 20 секунд. Добавив индекс для таблицы #__content

CREATE INDEX idx_catid_state ON #__content (catid, state);
он сократил время загрузки категорий до 1 секунды. Затем наш герой решил поковырять SQL-запрос в ArticleModel, который отвечает за выборку материалов. И решил заменить тип JOIN на STRAIGHT_JOIN для категорий.
// ->from($db->quoteName('#__content', 'a'))->from(    $db->quoteName('#__content', 'a')    . ' STRAIGHT_JOIN ' . $db->quoteName('#__categories', 'c')    . ' ON ' . $db->quoteName('c.id') . ' = ' . $db->quoteName('a.catid'))// ->join('LEFT', $db->quoteName('#__categories', 'c'), $db->quoteName('c.id') . ' = ' . $db->quoteName('a.catid'))
Что сократило загрузку 200 материалов из 150к с 94 секунд до 5. К слову сказать, боевой сайт на Joomla 3 крутится на 12CPU 64GB рамы. А все манипуляции с кодом он делает на базовом 1CPU 1GB сервере и замеры скорости даны именно для базового сервера. Но это всё в дискуссии, хотя в идеале должно вылиться в Pull Requests. Мы - Open Source сообщество, где никто никому ничего не должен. Джунгли. Но человек ищет пути оптимизации Joomla и предлагает решения. Если оказать поддержку и предложить помощь хотя бы с тестированием самых разнообразных сценариев, то возможно эти улучшения смогут войти в ядро. Пусть не быстро, пусть через несколько лет, пусть не все, но войдут. Достаточно предложить руку помощи и приложить немного усилий.
Дискуссию на GitHub можно почитать здесь.@joomlafeed#joomla #community #php

0 Пользователей и 1 Гость просматривают эту тему.
  • 6 Ответов
  • 2557 Просмотров
*

chipbober

  • Осваиваюсь на форуме
  • 14
  • 0 / 0
      При переносе сайта с одного хостинга на другой пропал тиц. Вродебы проблема в том что : сайт доступен с именем http://www.name.by и http://name.by и http://www.name.by/  и ето надо както "склеить".
     Посоветовали обратиться в Яндекс поддержку вот  их ответ:
Цитировать
Если сайт доступен по нескольким адресам, то рекомендую Вам выбрать один адрес
главным, по которому сайт будет находиться в поиске, затем сообщить об этом
роботу при помощи файла robots.txt, который может выглядеть примерно так:
User-agent: Yandex
Disallow:
Host: url_главного_сайта
Выложить этот robots.txt по адресам всех сайтов. Далее необходимо дождаться
прохода робота зеркальщика, он отследит внесенные изменения и переклеит сайты
по адресу из Host. В среднем процесс занимает до 4–6 недель, ускорить его, к
сожалению, нельзя.
После этого сайт будет находиться в поиске по адресу из Host, Тиц будет также
перенесён на этот адрес.
   Чтобы не намудрить решить уточнить тут непонятные мне вапросы:
Цитировать
Выложить этот robots.txt по адресам всех сайтов.
- Всмысле к примеру по фтп на хостинг?(чтото вобще непонятно(.
   Может кто поможет с примерам к моему случаю? Буду очень благодарен и может каму это будет тоже полезно. Мой robots.txt -
Код
User-agent: *
Disallow: /administrator/
Disallow: /cache/
Disallow: /components/
Disallow: /editor/
Disallow: /help/
Disallow: /images/
Disallow: /includes/
Disallow: /language/
Disallow: /mambots/
Disallow: /media/
Disallow: /modules/
Disallow: /templates/
Disallow: /installation/
*

profiX0808

  • Захожу иногда
  • 497
  • 70 / 0
Если Вы раскручиваете http://www.name.by, то добавьте в "роботс.тхт" (файл находится в корне) :

Код
User-agent: *
Disallow: /administrator/
Disallow: /cache/
Disallow: /components/
Disallow: /editor/
Disallow: /help/
Disallow: /images/
Disallow: /includes/
Disallow: /language/
Disallow: /mambots/
Disallow: /media/
Disallow: /modules/
Disallow: /templates/
Disallow: /installation/
Host: www.name.by
*

chipbober

  • Осваиваюсь на форуме
  • 14
  • 0 / 0
Цитировать
User-agent: Yandex
Disallow:
А с этим что? ненадо писать юзер агент Яндекс и disallow:     -и тут нечего не писать?
« Последнее редактирование: 18.05.2010, 11:52:31 от chipbober »
*

profiX0808

  • Захожу иногда
  • 497
  • 70 / 0
User-agent: Yandex - это как бы "комманды" только для яндекса, но в данном случае не помешает длс всех ПС, а именно User-agent: *
Disallow: - это то, что не должны индексировать ПС

Пишите в роботс.тхт код, который я выше написал.
*

chipbober

  • Осваиваюсь на форуме
  • 14
  • 0 / 0
Чтото мне кажецо ещё надо, сделал то что вы говорили, но тиц всо такойже, хотя прошло прелично времени. Меня пугает что без www при анализе количество проиндексируемых страниц отличается чем с www.
*

valagoff

  • Давно я тут
  • 984
  • 110 / 0
В файл .htaccess после RewriteEngine On добавляем две строчки
Код
RewriteEngine On
RewriteCond %{HTTP_HOST} ^ваш_сайт.ru
RewriteRule (.*)$ http://www.ваш_сайт.ru/$1 [R=301,L]
Чтобы оставить сообщение,
Вам необходимо Войти или Зарегистрироваться
 

Как найти и определить сервис раскрутки сайта?

Автор Gosha5767

Ответов: 0
Просмотров: 10759
Последний ответ 08.07.2025, 17:19:50
от Gosha5767
Как вывести в сниппете название статьи, а потом название сайта?

Автор gorbi_U

Ответов: 0
Просмотров: 1198
Последний ответ 18.01.2022, 18:29:22
от gorbi_U
Яндекс не индексирует вообще картинки с сайта

Автор Девушка с веслом

Ответов: 6
Просмотров: 1335
Последний ответ 10.05.2021, 17:21:18
от xpank
Сервис или программа для оценки позиций сайта

Автор dron

Ответов: 12
Просмотров: 8533
Последний ответ 12.03.2021, 18:02:22
от v42bis
Продвижение сайта в Москве

Автор Arenida

Ответов: 3
Просмотров: 1947
Последний ответ 08.06.2020, 10:32:03
от kostikcom