Новости Joomla

Человек на GitHub ускорил Joomla в 600 раз на объёме 150к+ материалов в 1700+ категориях

Человек на GitHub ускорил Joomla в 600 раз на объёме 150к+ материалов в 1700+ категориях

👩‍💻 Человек на GitHub ускорил Joomla в 600 раз на объёме 150к+ материалов в 1700+ категориях. На старте его сайт на Joomla 3 вообще не смог обновиться на Joomla 5. Пришлось делать экспорт/импорт материалов. Проделав всё это он запустил-таки этот объём данных на Joomla 5. Тестовый скрипт грузил 200 материалов из этого объёма всего за 94 секунды ))) А главная страница с категориями грузилась 20 секунд. Добавив индекс для таблицы #__content

CREATE INDEX idx_catid_state ON #__content (catid, state);
он сократил время загрузки категорий до 1 секунды. Затем наш герой решил поковырять SQL-запрос в ArticleModel, который отвечает за выборку материалов. И решил заменить тип JOIN на STRAIGHT_JOIN для категорий.
// ->from($db->quoteName('#__content', 'a'))->from(    $db->quoteName('#__content', 'a')    . ' STRAIGHT_JOIN ' . $db->quoteName('#__categories', 'c')    . ' ON ' . $db->quoteName('c.id') . ' = ' . $db->quoteName('a.catid'))// ->join('LEFT', $db->quoteName('#__categories', 'c'), $db->quoteName('c.id') . ' = ' . $db->quoteName('a.catid'))
Что сократило загрузку 200 материалов из 150к с 94 секунд до 5. К слову сказать, боевой сайт на Joomla 3 крутится на 12CPU 64GB рамы. А все манипуляции с кодом он делает на базовом 1CPU 1GB сервере и замеры скорости даны именно для базового сервера. Но это всё в дискуссии, хотя в идеале должно вылиться в Pull Requests. Мы - Open Source сообщество, где никто никому ничего не должен. Джунгли. Но человек ищет пути оптимизации Joomla и предлагает решения. Если оказать поддержку и предложить помощь хотя бы с тестированием самых разнообразных сценариев, то возможно эти улучшения смогут войти в ядро. Пусть не быстро, пусть через несколько лет, пусть не все, но войдут. Достаточно предложить руку помощи и приложить немного усилий.
Дискуссию на GitHub можно почитать здесь.@joomlafeed#joomla #community #php

0 Пользователей и 1 Гость просматривают эту тему.
  • 10 Ответов
  • 6390 Просмотров
*

ivpoed

  • Осваиваюсь на форуме
  • 23
  • 0 / 0
Здравствуйте.

Хотел бы сделать следующее.
У меня Joomla 1.5 + Artio JoomSEF

Хотел бы с помощью robot.txt запретить индексацию всего, и составить списочек тех адресов (которые к тому же являются SEF'ами), которые всё-же разрешены к индексации..
Как это можно сделать?

Цель - не допустить попадания в индекс всяких мусорных случайных страниц, которые генерирует Joomla, а также страниц, которые я на день-другой создаю, а потом меняю их адрес.

Спасибо!
*

delphine

  • Захожу иногда
  • 189
  • 30 / 0
всё просто. в файле robots.txt пишем:
Код
User-agent: *
Allow: /$
Allow: /*.php$
Allow: /*.jpg$
Allow: /*.gif$
Allow: /*.xml$
Disallow: /
по сторокам:
1-я robots.txt для всех поисковиков
2-я разрешает индексировать главную типа http://www.site.ru/
с 3-й по 6-ю говорим что разрешаем индексировать страницы которые заканчиваются так .php, .jpg и т.д.
7-я запрещаем индексировать всё остальное
исли нужно запретить отдельную страницу пишем: Disallow: /stranica.php (ну или какую надо запретить) и вставляем это строку до Allow: /*.php$
Вроде всё понятно, если что, пиши...
Не дружу с дизайном.
Приветствуются обмен ссылками или
Z879646195991 | R637245146155 | E222695044531 | U162157337447 | Y381916949633 | B493612164919 | Я.Деньги 41001254998875
*

ivpoed

  • Осваиваюсь на форуме
  • 23
  • 0 / 0
User-agent: *
Allow: /$
Allow: /*.php$
Allow: /*.jpg$
Allow: /*.gif$
Allow: /*.xml$
Disallow: /index.php?*

Действительно ли такой robots.txt запретит индексацию не SEF-ссылок (index.php?option=.......)
Насколько корректно записано?
По яндекс-панели (там есть инструмент проверки работоспособности robots.txt) все проходит хорошо.
Есть ли какие-нибудь подводные камни в данном robots.txt?

Заранее спасибо! ;)
*

delphine

  • Захожу иногда
  • 189
  • 30 / 0
у меня работает замечательно как для яндекса так и для гугля... а Disallow: /index.php?* можно не писать, достаточно Disallow: / т.к. это правило запрещает индексировать всё что не заканчиватеся так как задано в Allow
Не дружу с дизайном.
Приветствуются обмен ссылками или
Z879646195991 | R637245146155 | E222695044531 | U162157337447 | Y381916949633 | B493612164919 | Я.Деньги 41001254998875
*

ivpoed

  • Осваиваюсь на форуме
  • 23
  • 0 / 0
Ещё раз спасибо!
*

hamiak

  • Осваиваюсь на форуме
  • 18
  • 0 / 0
  • Грызун форума
а как мне закрыть доступ к серии ссылок
http://www.computer-hardware.mk.ua/main?start=0
и меняются тока цифры.
потому что если все цифры кроме ноля показывает с Нотисами
хочу закрыть все что после http://www.computer-hardware.mk.ua/main?*
как мне это лучше сделать и так что бы оно не тока не индексировалось а вообще убрать доступ к этим страницам так как они не нужны!
*

delphine

  • Захожу иногда
  • 189
  • 30 / 0
а как мне закрыть доступ к серии ссылок
http://www.computer-hardware.mk.ua/main?start=0
и меняются тока цифры.
потому что если все цифры кроме ноля показывает с Нотисами
хочу закрыть все что после http://www.computer-hardware.mk.ua/main?*
Disallow: /main?* запретит индексирование (так же со временем пропадут из поиска в поисковике)
и так что бы оно не тока не индексировалось а вообще убрать доступ к этим страницам так как они не нужны!
тут наверное лучше использовать редирект допустим на главную.
Не дружу с дизайном.
Приветствуются обмен ссылками или
Z879646195991 | R637245146155 | E222695044531 | U162157337447 | Y381916949633 | B493612164919 | Я.Деньги 41001254998875
*

Cerhio

  • Захожу иногда
  • 109
  • 2 / 0
Друзья, проблема такая. На сайте плодятся множественные ссылки вида _www.site.ru/razdel/page.html?3242423423423423423
похоже на идентификаторы ссесий. разобраться с генерацией пока не могу, но надо этот шлак хотябы к поиску запретить.

установлен сеф-компонент. правильно ли понял из написанного выше, что нужно в роботс ткст добавить

Disallow: /*.php?*
Disallow: /*.html?*
Disallow: /*.htm?*

Заранее спасибо!
*

hamiak

  • Осваиваюсь на форуме
  • 18
  • 0 / 0
  • Грызун форума
Disallow: /main?* запретит индексирование (так же со временем пропадут из поиска в поисковике) тут наверное лучше использовать редирект допустим на главную.
пасиба добавил. как бы еще вылечить это))))?
*

jaath

  • Новичок
  • 7
  • 0 / 0
Скажите как мне закрыть только определенную ссылку от индексации? например http://shop.24-it.ru/index.php?option=com_content&view=article&id=72&Itemid=77
*

delphine

  • Захожу иногда
  • 189
  • 30 / 0
Скажите как мне закрыть только определенную ссылку от индексации? например http://shop.24-it.ru/index.php?option=com_content&view=article&id=72&Itemid=77
Disallow: /index.php?option=com_content&view=article&id=72&Itemid=77
Не дружу с дизайном.
Приветствуются обмен ссылками или
Z879646195991 | R637245146155 | E222695044531 | U162157337447 | Y381916949633 | B493612164919 | Я.Деньги 41001254998875
Чтобы оставить сообщение,
Вам необходимо Войти или Зарегистрироваться