Новости Joomla

Человек на GitHub ускорил Joomla в 600 раз на объёме 150к+ материалов в 1700+ категориях

Человек на GitHub ускорил Joomla в 600 раз на объёме 150к+ материалов в 1700+ категориях

👩‍💻 Человек на GitHub ускорил Joomla в 600 раз на объёме 150к+ материалов в 1700+ категориях. На старте его сайт на Joomla 3 вообще не смог обновиться на Joomla 5. Пришлось делать экспорт/импорт материалов. Проделав всё это он запустил-таки этот объём данных на Joomla 5. Тестовый скрипт грузил 200 материалов из этого объёма всего за 94 секунды ))) А главная страница с категориями грузилась 20 секунд. Добавив индекс для таблицы #__content

CREATE INDEX idx_catid_state ON #__content (catid, state);
он сократил время загрузки категорий до 1 секунды. Затем наш герой решил поковырять SQL-запрос в ArticleModel, который отвечает за выборку материалов. И решил заменить тип JOIN на STRAIGHT_JOIN для категорий.
// ->from($db->quoteName('#__content', 'a'))->from(    $db->quoteName('#__content', 'a')    . ' STRAIGHT_JOIN ' . $db->quoteName('#__categories', 'c')    . ' ON ' . $db->quoteName('c.id') . ' = ' . $db->quoteName('a.catid'))// ->join('LEFT', $db->quoteName('#__categories', 'c'), $db->quoteName('c.id') . ' = ' . $db->quoteName('a.catid'))
Что сократило загрузку 200 материалов из 150к с 94 секунд до 5. К слову сказать, боевой сайт на Joomla 3 крутится на 12CPU 64GB рамы. А все манипуляции с кодом он делает на базовом 1CPU 1GB сервере и замеры скорости даны именно для базового сервера. Но это всё в дискуссии, хотя в идеале должно вылиться в Pull Requests. Мы - Open Source сообщество, где никто никому ничего не должен. Джунгли. Но человек ищет пути оптимизации Joomla и предлагает решения. Если оказать поддержку и предложить помощь хотя бы с тестированием самых разнообразных сценариев, то возможно эти улучшения смогут войти в ядро. Пусть не быстро, пусть через несколько лет, пусть не все, но войдут. Достаточно предложить руку помощи и приложить немного усилий.
Дискуссию на GitHub можно почитать здесь.@joomlafeed#joomla #community #php

0 Пользователей и 1 Гость просматривают эту тему.
  • 10 Ответов
  • 1156 Просмотров
*

HiopsNerevar

  • Давно я тут
  • 630
  • 88 / 0
  • Я удобный.
slogin и robots.txt
« : 03.02.2014, 10:53:04 »
Интересная ситуация. Закрыл от индексации ссылки вида /component/ и теперь в Яндекс Вебмастере в разделе "Исключенные страницы" более 50! тысяч страниц вида /component/slogin/provider/google/auth/L2dhbGVyZXlhLzY3LWRpbWFyL2RldGFpbC8yMTY2LWF2dG9yc2tpai1yaXN1bm9rLmh0bWw/ZGV0YWlsPTcmYnV0dG9ucz0w.html
Просто интересуюсь это нормально? И как Яндекс вообще до них добрался.
Это бидаль пича.
*

ELLE

  • Глобальный модератор
  • 4505
  • 893 / 0
Re: slogin и robots.txt
« Ответ #1 : 03.02.2014, 11:03:50 »
исходный код свой посмотрите...они там есть
каждый раз хвостик /L2dhbGVyZXlhLzY3LWRpbWFy.... меняется, отсюда и 50тыс
*

HiopsNerevar

  • Давно я тут
  • 630
  • 88 / 0
  • Я удобный.
Re: slogin и robots.txt
« Ответ #2 : 03.02.2014, 12:48:06 »
Действительно. Спасибо. Какая неприятность.
Это бидаль пича.
*

Arkadiy

  • Гуру
  • 5317
  • 463 / 2
  • Крепитесь, други.
Re: slogin и robots.txt
« Ответ #3 : 03.02.2014, 12:49:44 »
А по маске разве нельзя закрыть?
*

HiopsNerevar

  • Давно я тут
  • 630
  • 88 / 0
  • Я удобный.
Re: slogin и robots.txt
« Ответ #4 : 03.02.2014, 12:58:17 »
А по маске разве нельзя закрыть?
Так и закрыто. Но ссылки то никуда не деваются из кода. И Яндекс их всеравно находит и в базу добавляет.
Это бидаль пича.
*

ELLE

  • Глобальный модератор
  • 4505
  • 893 / 0
Re: slogin и robots.txt
« Ответ #5 : 03.02.2014, 15:16:48 »
и в Google они тоже висят

site:site.ru auth

Спойлер
[свернуть]
« Последнее редактирование: 03.02.2014, 15:25:23 от ELLE »
*

HiopsNerevar

  • Давно я тут
  • 630
  • 88 / 0
  • Я удобный.
Re: slogin и robots.txt
« Ответ #6 : 03.02.2014, 15:37:27 »
У меня в Google на удивление всего 36 ссылок. Так собственно что. Оставлять как есть и забыть, или искать пути решения возникшей ситуации?
Это бидаль пича.
*

ELLE

  • Глобальный модератор
  • 4505
  • 893 / 0
Re: slogin и robots.txt
« Ответ #7 : 03.02.2014, 15:49:00 »
у вас видимо модуль на всех страницах опубликован - поэтому так много
можно вынести только на страницу регистрации, допустим, или там где нужно
можно еще попробовать грузить скриптом его, чтоб в исходном коде не было этих ссылок
чтоб эти страницы стали выпадать вообще из вебмастера - нужен или мета-тег noindex или ответ 403, 410 к примеру, и разрешить индексировать их (робот заново их просканит и начнет удалять)

на данный момент они 302 отдают
« Последнее редактирование: 03.02.2014, 15:52:52 от ELLE »
*

Arkadiy

  • Гуру
  • 5317
  • 463 / 2
  • Крепитесь, други.
Re: slogin и robots.txt
« Ответ #8 : 03.02.2014, 16:59:51 »
В модуле уже есть AJAX загрузка, достаточно ее включить
*

ELLE

  • Глобальный модератор
  • 4505
  • 893 / 0
Re: slogin и robots.txt
« Ответ #9 : 03.02.2014, 17:47:19 »
В модуле уже есть AJAX загрузка, достаточно ее включить
во, оказывается нужно просто обновиться :)
*

Arkadiy

  • Гуру
  • 5317
  • 463 / 2
  • Крепитесь, други.
Re: slogin и robots.txt
« Ответ #10 : 03.02.2014, 19:02:45 »
Ну если совсем уже старое, AJAX в модуль я добавил уже пол-года а то и больше назад.
Чтобы оставить сообщение,
Вам необходимо Войти или Зарегистрироваться
 

Роботу Googlebot заблокирован доступ в файле robots.txt

Автор illimited

Ответов: 3
Просмотров: 4075
Последний ответ 29.05.2022, 14:57:55
от web1
Правильный robots.txt? [вопросы/обсуждение]

Автор wishlight

Ответов: 447
Просмотров: 210082
Последний ответ 20.11.2021, 16:53:49
от Byzi
Как лучше прописать robots.txt?

Автор web1

Ответов: 2
Просмотров: 1251
Последний ответ 25.07.2021, 21:38:12
от web1
Разные robots.txt

Автор yyyuuu

Ответов: 7
Просмотров: 1238
Последний ответ 14.01.2021, 14:06:58
от rsn
Языки /en/ /ru/ проблема с входом в админку и редиректит на site.r/ru/robots.txt

Автор HolySong

Ответов: 0
Просмотров: 1128
Последний ответ 10.07.2020, 13:12:46
от HolySong