Новости Joomla

Человек на GitHub ускорил Joomla в 600 раз на объёме 150к+ материалов в 1700+ категориях

Человек на GitHub ускорил Joomla в 600 раз на объёме 150к+ материалов в 1700+ категориях

👩‍💻 Человек на GitHub ускорил Joomla в 600 раз на объёме 150к+ материалов в 1700+ категориях. На старте его сайт на Joomla 3 вообще не смог обновиться на Joomla 5. Пришлось делать экспорт/импорт материалов. Проделав всё это он запустил-таки этот объём данных на Joomla 5. Тестовый скрипт грузил 200 материалов из этого объёма всего за 94 секунды ))) А главная страница с категориями грузилась 20 секунд. Добавив индекс для таблицы #__content

CREATE INDEX idx_catid_state ON #__content (catid, state);
он сократил время загрузки категорий до 1 секунды. Затем наш герой решил поковырять SQL-запрос в ArticleModel, который отвечает за выборку материалов. И решил заменить тип JOIN на STRAIGHT_JOIN для категорий.
// ->from($db->quoteName('#__content', 'a'))->from(    $db->quoteName('#__content', 'a')    . ' STRAIGHT_JOIN ' . $db->quoteName('#__categories', 'c')    . ' ON ' . $db->quoteName('c.id') . ' = ' . $db->quoteName('a.catid'))// ->join('LEFT', $db->quoteName('#__categories', 'c'), $db->quoteName('c.id') . ' = ' . $db->quoteName('a.catid'))
Что сократило загрузку 200 материалов из 150к с 94 секунд до 5. К слову сказать, боевой сайт на Joomla 3 крутится на 12CPU 64GB рамы. А все манипуляции с кодом он делает на базовом 1CPU 1GB сервере и замеры скорости даны именно для базового сервера. Но это всё в дискуссии, хотя в идеале должно вылиться в Pull Requests. Мы - Open Source сообщество, где никто никому ничего не должен. Джунгли. Но человек ищет пути оптимизации Joomla и предлагает решения. Если оказать поддержку и предложить помощь хотя бы с тестированием самых разнообразных сценариев, то возможно эти улучшения смогут войти в ядро. Пусть не быстро, пусть через несколько лет, пусть не все, но войдут. Достаточно предложить руку помощи и приложить немного усилий.
Дискуссию на GitHub можно почитать здесь.@joomlafeed#joomla #community #php

0 Пользователей и 1 Гость просматривают эту тему.
  • 6 Ответов
  • 3270 Просмотров
*

none.sql

  • Захожу иногда
  • 143
  • 8 / 1
*

ELLE

  • Глобальный модератор
  • 4505
  • 893 / 0
*

voland

  • Легенда
  • 11026
  • 588 / 112
  • Эта строка съедает место на вашем мониторе
1) хаком
2) плагином
3) сторонним плагином
4) не делать этого а просто вписать строчку в robots
*

none.sql

  • Захожу иногда
  • 143
  • 8 / 1
обязательно мета тег?
проще в роботсе закрыть...
Желательно, если я закрою от индексации 2,3... (n); страницы, поисковой робот не сможет найти некоторые ссылки, а индексировать там контент не нужно так как меняется только таблица(её содержимое с точки зрения исходного кода). Вот я и подумал, что лучше было бы добавить тег meta (noindex, follow). Хотя может это крайности. Я знаю Google такие параметры может отслеживать и в гв можно настроить как использовать такие url, но не все поисковые системы умеют это делать (по крайней мере не делают).
*

ELLE

  • Глобальный модератор
  • 4505
  • 893 / 0
*

worstinme

  • Захожу иногда
  • 82
  • 10 / 0
  • hawkeye 57 lvl.
:dry:

в индекс файле шаблона сверху пишете

Код
$limitstart = JRequest::getVar('limitstart', 1);

далее в теге <head> вставляете

Код
<?php if ($limitstarte > 1) : ?>
<meta name="robots" content="noindex"/>
<?php endif; ?>

аналогичное решение для ZOO для скрытия от индексации тегов и дублированных страниц выше 1:
Код
<?
$page = JRequest::getVar('page', 1);
$task = JRequest::getVar('task', 1);
?>

<head>
<?php if ($page > 1 or $task == 'tag') : ?>
<meta name="robots" content="noindex"/>
<?php endif; ?>

....
</head>
*

saynez

  • Осваиваюсь на форуме
  • 29
  • 0 / 0
А как на обычную страницу добавить такой метатег?
Такого типа
Код
http://site.ru/blogger/listings/saynez.html
Можно как-то по ключевому слову в URL, например если встречается blogger, то добавляется на эту страницу метатег.
« Последнее редактирование: 26.06.2014, 22:41:45 от saynez »
Чтобы оставить сообщение,
Вам необходимо Войти или Зарегистрироваться
 

Редирект для страницы с добавлением кода языка

Автор zeus07

Ответов: 0
Просмотров: 2382
Последний ответ 26.06.2023, 11:25:10
от zeus07
Роботу Googlebot заблокирован доступ в файле robots.txt

Автор illimited

Ответов: 3
Просмотров: 4063
Последний ответ 29.05.2022, 14:57:55
от web1
Google не индексирует страницы через ajax ссылки

Автор illimited

Ответов: 0
Просмотров: 1425
Последний ответ 31.03.2022, 23:53:05
от illimited
Правильный robots.txt? [вопросы/обсуждение]

Автор wishlight

Ответов: 447
Просмотров: 210057
Последний ответ 20.11.2021, 16:53:49
от Byzi
Не дело это - закрывать от индексации страницы с пагинацией

Автор ChaosHead

Ответов: 48
Просмотров: 11647
Последний ответ 04.11.2021, 06:44:26
от Slava77