Новости Joomla

Человек на GitHub ускорил Joomla в 600 раз на объёме 150к+ материалов в 1700+ категориях

Человек на GitHub ускорил Joomla в 600 раз на объёме 150к+ материалов в 1700+ категориях

👩‍💻 Человек на GitHub ускорил Joomla в 600 раз на объёме 150к+ материалов в 1700+ категориях. На старте его сайт на Joomla 3 вообще не смог обновиться на Joomla 5. Пришлось делать экспорт/импорт материалов. Проделав всё это он запустил-таки этот объём данных на Joomla 5. Тестовый скрипт грузил 200 материалов из этого объёма всего за 94 секунды ))) А главная страница с категориями грузилась 20 секунд. Добавив индекс для таблицы #__content

CREATE INDEX idx_catid_state ON #__content (catid, state);
он сократил время загрузки категорий до 1 секунды. Затем наш герой решил поковырять SQL-запрос в ArticleModel, который отвечает за выборку материалов. И решил заменить тип JOIN на STRAIGHT_JOIN для категорий.
// ->from($db->quoteName('#__content', 'a'))->from(    $db->quoteName('#__content', 'a')    . ' STRAIGHT_JOIN ' . $db->quoteName('#__categories', 'c')    . ' ON ' . $db->quoteName('c.id') . ' = ' . $db->quoteName('a.catid'))// ->join('LEFT', $db->quoteName('#__categories', 'c'), $db->quoteName('c.id') . ' = ' . $db->quoteName('a.catid'))
Что сократило загрузку 200 материалов из 150к с 94 секунд до 5. К слову сказать, боевой сайт на Joomla 3 крутится на 12CPU 64GB рамы. А все манипуляции с кодом он делает на базовом 1CPU 1GB сервере и замеры скорости даны именно для базового сервера. Но это всё в дискуссии, хотя в идеале должно вылиться в Pull Requests. Мы - Open Source сообщество, где никто никому ничего не должен. Джунгли. Но человек ищет пути оптимизации Joomla и предлагает решения. Если оказать поддержку и предложить помощь хотя бы с тестированием самых разнообразных сценариев, то возможно эти улучшения смогут войти в ядро. Пусть не быстро, пусть через несколько лет, пусть не все, но войдут. Достаточно предложить руку помощи и приложить немного усилий.
Дискуссию на GitHub можно почитать здесь.@joomlafeed#joomla #community #php

0 Пользователей и 1 Гость просматривают эту тему.
  • 4 Ответов
  • 4254 Просмотров
*

Лена)

  • Захожу иногда
  • 402
  • 28 / 0
доброе утро

хочу открыть для индексации папку images, в которойхранятся изображения продукции сайта.

но хочу, чтобы не все папки попали в индексацию. там присутствуют левые папки и кроме того, около 200сот изображений лежит в самой папке images (то есть не в отдельных папках). удалить их не могу, потому что не знаю точно, какие используются на сайте, какие нет. но и не буду же я прописывать запрет для этих 200сот изображений... :dry:

можно ли как-нибудь разрешить индексацию только тех папок в папке images, которые я хочу?

так наверно не прокатит:

Disallow: /images/
Allow: /images/kabel/
Allow: /images/mufta/
Allow: /images/konnektor/
........................

что можно здесь придумать?
*

Лена)

  • Захожу иногда
  • 402
  • 28 / 0
Re: разрешение индексации в robots.txt
« Ответ #1 : 26.07.2011, 07:58:44 »
попробую так

Allow: /images/kabel/
Allow: /images/mufta/
Allow: /images/konnektor/
Disallow: /images/*.jpg
Disallow: /images/*.png
Disallow: /images/*.gif
*

Лена)

  • Захожу иногда
  • 402
  • 28 / 0
Re: разрешение индексации в robots.txt
« Ответ #2 : 26.07.2011, 09:15:40 »
вроде всё правильно, однако анализатор Robots.txt Checker на строке Allow: /images/kabel/ сообщает об ошибке: Unknown command. Acceptable commands are "User-agent" and "Disallow". A robots.txt file doesn't say what files/directories you can allow but just what you can disallow. Please refer to Robots Exclusion Standard page for more informations.

поисковики Google и Yandex вроде принимают команду allow...

подождем недельку, посмотрим результат


*

skai

  • Moderator
  • 1198
  • 153 / 1
  • skaiseo
Re: разрешение индексации в robots.txt
« Ответ #3 : 26.07.2011, 10:01:32 »
Allow: /images/kabel/
Allow: /images/mufta/
Allow: /images/konnektor/
Disallow: /images/*.jpg
Disallow: /images/*.png
Disallow: /images/*.gif
- так какой смысл писать запрет для каждого расширения если вы всё равно их все запретили? Тогда просто одной строкой Disallow: /images/ , а для подпапок Allow

Цитировать
около 200сот изображений лежит в самой папке images (то есть не в отдельных папках)
- в images или в stories ?
Наполнение вашего сайта - 1т.р. стр. (текст, изображения, мета, перелинковка). Гарантия высокого ранжирования. SEO консультация в подарок.
----------------------------------------------------------------------------------------------
*

Лена)

  • Захожу иногда
  • 402
  • 28 / 0
Re: разрешение индексации в robots.txt
« Ответ #4 : 26.07.2011, 12:11:12 »
- так какой смысл писать запрет для каждого расширения если вы всё равно их все запретили? Тогда просто одной строкой Disallow: /images/

да, правильней вот так будет:
Код
Allow: /images/kabel/
Allow: /images/mufta/
Allow: /images/konnektor/
Disallow: /images/

странно только, что в роботс-файле гуугла сначала указывается Disallow, а потом Allow. Поисковик ведь выполняет команды в порядке появления их в файле, поэтому Allow, указанное после Disallow, не имеет силы....

- в images или в stories ?
в images
« Последнее редактирование: 26.07.2011, 12:21:50 от Лена) »
Чтобы оставить сообщение,
Вам необходимо Войти или Зарегистрироваться
 

Роботу Googlebot заблокирован доступ в файле robots.txt

Автор illimited

Ответов: 3
Просмотров: 4064
Последний ответ 29.05.2022, 14:57:55
от web1
Расширение от индексации поисковиками внешних ссылок

Автор THE KILLERS

Ответов: 6
Просмотров: 1586
Последний ответ 11.03.2022, 16:02:10
от NewUsers
Закрыть страницу со знаком? от индексации

Автор Андрей Нестеров

Ответов: 2
Просмотров: 1418
Последний ответ 28.02.2022, 22:38:44
от Андрей Нестеров
Правильный robots.txt? [вопросы/обсуждение]

Автор wishlight

Ответов: 447
Просмотров: 210065
Последний ответ 20.11.2021, 16:53:49
от Byzi
Не дело это - закрывать от индексации страницы с пагинацией

Автор ChaosHead

Ответов: 48
Просмотров: 11647
Последний ответ 04.11.2021, 06:44:26
от Slava77