Новости Joomla

Человек на GitHub ускорил Joomla в 600 раз на объёме 150к+ материалов в 1700+ категориях

Человек на GitHub ускорил Joomla в 600 раз на объёме 150к+ материалов в 1700+ категориях

👩‍💻 Человек на GitHub ускорил Joomla в 600 раз на объёме 150к+ материалов в 1700+ категориях. На старте его сайт на Joomla 3 вообще не смог обновиться на Joomla 5. Пришлось делать экспорт/импорт материалов. Проделав всё это он запустил-таки этот объём данных на Joomla 5. Тестовый скрипт грузил 200 материалов из этого объёма всего за 94 секунды ))) А главная страница с категориями грузилась 20 секунд. Добавив индекс для таблицы #__content

CREATE INDEX idx_catid_state ON #__content (catid, state);
он сократил время загрузки категорий до 1 секунды. Затем наш герой решил поковырять SQL-запрос в ArticleModel, который отвечает за выборку материалов. И решил заменить тип JOIN на STRAIGHT_JOIN для категорий.
// ->from($db->quoteName('#__content', 'a'))->from(    $db->quoteName('#__content', 'a')    . ' STRAIGHT_JOIN ' . $db->quoteName('#__categories', 'c')    . ' ON ' . $db->quoteName('c.id') . ' = ' . $db->quoteName('a.catid'))// ->join('LEFT', $db->quoteName('#__categories', 'c'), $db->quoteName('c.id') . ' = ' . $db->quoteName('a.catid'))
Что сократило загрузку 200 материалов из 150к с 94 секунд до 5. К слову сказать, боевой сайт на Joomla 3 крутится на 12CPU 64GB рамы. А все манипуляции с кодом он делает на базовом 1CPU 1GB сервере и замеры скорости даны именно для базового сервера. Но это всё в дискуссии, хотя в идеале должно вылиться в Pull Requests. Мы - Open Source сообщество, где никто никому ничего не должен. Джунгли. Но человек ищет пути оптимизации Joomla и предлагает решения. Если оказать поддержку и предложить помощь хотя бы с тестированием самых разнообразных сценариев, то возможно эти улучшения смогут войти в ядро. Пусть не быстро, пусть через несколько лет, пусть не все, но войдут. Достаточно предложить руку помощи и приложить немного усилий.
Дискуссию на GitHub можно почитать здесь.@joomlafeed#joomla #community #php

0 Пользователей и 1 Гость просматривают эту тему.
  • 6 Ответов
  • 1763 Просмотров
*

AndJy

  • Осваиваюсь на форуме
  • 42
  • 0 / 0
Привет всем!
Прошу помощи. Некоторые страницы закрыты для индексации в robots.txt. Нужно открыть 4 закрытых страницы. Делается это в FilleZilla.
У меня эта прога пока не может соединиться с сервером. Вопрос -

Если филязиля не работает (нет соединения с сервером), то может быть сработает другой вариант для того, что бы разрешить к индексации нужные страницы сайта в robots.txt:

1. Скачал с хостинга файл robots.txt
2. открыл его в notepad++
3. удалил строки тех страниц, которые нужно открыть для индексации

Например, Disallow: /nashi-preimushestva/otzyvy-i-blagodarnosti.html

4. удалить с хостинга файл robots.txt
5. загрузить на хостинг вместо удаленного robots.txt исправленный файл robots.txt

Это сработает? Страницы откроются для индексации?
*

Arkadiy

  • Гуру
  • 5317
  • 463 / 2
  • Крепитесь, други.
Если у вас есть другой способ скачать и загрузить нужный файл, то делайте так как написали, в filezilla происходит все то же самое.
*

AndJy

  • Осваиваюсь на форуме
  • 42
  • 0 / 0
Попробовал. Исправленный файл robots.txt простым способом "скопировать, в хостинге  в корневой папке кликнуть правой кнопкой - вставить" не получается. В корневую папку WWW файлы вставляются каким то другим способом? Как это сделать?
*

AndJy

  • Осваиваюсь на форуме
  • 42
  • 0 / 0
А может быть лучше идти через админку? Есть в админке Joomla корневой каталог где находится файл robots.txt?
*

Arkadiy

  • Гуру
  • 5317
  • 463 / 2
  • Крепитесь, други.
Нет, файами Joomla не управляет. Есть компоненты для управления файлами типа http://extensions.joomla.org/extensions/extension/core-enhancements/file-management/extplorer
*

Филипп Сорокин

  • Завсегдатай
  • 1918
  • 160 / 4
  • разработчик.москва
Попробуйте редактор Robots и Sitemap SEF Wizard -- он позволяет редактировать/создавать эти файлы прямо из панели администратора. http://joomlaforum.ru/index.php/topic,322516.0.html

P.S. И оставляйте Ваши отзывы :)
*

AndJy

  • Осваиваюсь на форуме
  • 42
  • 0 / 0
Спасибо.
1. отредактированный файл Robots загружается на хостинге в корневую папку www элементарным перетаскиванием "драгэн дроп".
2. Ни хрена не работает коррекция файла Robots. Откорректировал файл, вставил/перетаскиванием в корневую папку www 03.07. webmaster.yandex.ru написал, что последнее посещение роботом (видимо сайта) было 04.07. НО В СПИСКЕ ЗАПРЕЩЕННЫХ robots.txt УБРАННЫЕ СТРАНИЦЫ ПРИСУТСТВУЮТ. Что это за ....... такое? Коррекция файла robots.txt не сработала, почему? Что дальше? Как открыть страницы для индексации? Можно ли заставить Яндекс сделать внеплановую индексацию сайта? Кошмар..............
Чтобы оставить сообщение,
Вам необходимо Войти или Зарегистрироваться
 

Как найти и определить сервис раскрутки сайта?

Автор Gosha5767

Ответов: 0
Просмотров: 10759
Последний ответ 08.07.2025, 17:19:50
от Gosha5767
Редирект для страницы с добавлением кода языка

Автор zeus07

Ответов: 0
Просмотров: 2382
Последний ответ 26.06.2023, 11:25:10
от zeus07
Роботу Googlebot заблокирован доступ в файле robots.txt

Автор illimited

Ответов: 3
Просмотров: 4063
Последний ответ 29.05.2022, 14:57:55
от web1
Google не индексирует страницы через ajax ссылки

Автор illimited

Ответов: 0
Просмотров: 1425
Последний ответ 31.03.2022, 23:53:05
от illimited
Расширение от индексации поисковиками внешних ссылок

Автор THE KILLERS

Ответов: 6
Просмотров: 1586
Последний ответ 11.03.2022, 16:02:10
от NewUsers