Новости Joomla

Человек на GitHub ускорил Joomla в 600 раз на объёме 150к+ материалов в 1700+ категориях

Человек на GitHub ускорил Joomla в 600 раз на объёме 150к+ материалов в 1700+ категориях

👩‍💻 Человек на GitHub ускорил Joomla в 600 раз на объёме 150к+ материалов в 1700+ категориях. На старте его сайт на Joomla 3 вообще не смог обновиться на Joomla 5. Пришлось делать экспорт/импорт материалов. Проделав всё это он запустил-таки этот объём данных на Joomla 5. Тестовый скрипт грузил 200 материалов из этого объёма всего за 94 секунды ))) А главная страница с категориями грузилась 20 секунд. Добавив индекс для таблицы #__content

CREATE INDEX idx_catid_state ON #__content (catid, state);
он сократил время загрузки категорий до 1 секунды. Затем наш герой решил поковырять SQL-запрос в ArticleModel, который отвечает за выборку материалов. И решил заменить тип JOIN на STRAIGHT_JOIN для категорий.
// ->from($db->quoteName('#__content', 'a'))->from(    $db->quoteName('#__content', 'a')    . ' STRAIGHT_JOIN ' . $db->quoteName('#__categories', 'c')    . ' ON ' . $db->quoteName('c.id') . ' = ' . $db->quoteName('a.catid'))// ->join('LEFT', $db->quoteName('#__categories', 'c'), $db->quoteName('c.id') . ' = ' . $db->quoteName('a.catid'))
Что сократило загрузку 200 материалов из 150к с 94 секунд до 5. К слову сказать, боевой сайт на Joomla 3 крутится на 12CPU 64GB рамы. А все манипуляции с кодом он делает на базовом 1CPU 1GB сервере и замеры скорости даны именно для базового сервера. Но это всё в дискуссии, хотя в идеале должно вылиться в Pull Requests. Мы - Open Source сообщество, где никто никому ничего не должен. Джунгли. Но человек ищет пути оптимизации Joomla и предлагает решения. Если оказать поддержку и предложить помощь хотя бы с тестированием самых разнообразных сценариев, то возможно эти улучшения смогут войти в ядро. Пусть не быстро, пусть через несколько лет, пусть не все, но войдут. Достаточно предложить руку помощи и приложить немного усилий.
Дискуссию на GitHub можно почитать здесь.@joomlafeed#joomla #community #php

0 Пользователей и 1 Гость просматривают эту тему.
  • 4 Ответов
  • 3148 Просмотров
*

Liza

  • Новичок
  • 3
  • 0 / 0
В общем вычитала,что бывают дубли в Joomla. На одном форуме начиталась,что надо в файле роботс ввести 3 строчки. Внесла. Вопрос вот в чем: 14.03. резко подскочил сайт в Яндексе аж из неизвестности на 1-ю страницу по одному запросу ,а после того,как я внесла изменения -на следующий день -откат на 73 место. Может проблема с моих правках. Подскажите плииз. Вот данные из файла роботс:
User-agent: *
Disallow: /administrator/
Disallow: /cache/
Disallow: /components/
Disallow: /images/
Disallow: /includes/
Disallow: /installation/
Disallow: /language/
Disallow: /libraries/
Disallow: /media/
Disallow: /modules/
Disallow: /plugins/
Disallow: /templates/
Disallow: /tmp/
Disallow: /xmlrpc/
Disallow: /index.php?
Disallow: /*.pdf
Disallow: /*print=1
Disallow: /*mailto/
   
   
*

Webb

  • Захожу иногда
  • 304
  • 19 / 2
  • rusinmd
Re: дубли страниц и правка в robots
« Ответ #1 : 20.03.2011, 02:29:49 »
Да скорее это Яндекса глюки, тем более из неизвестности в топ и откат, что еще говорить.
*

dieems

  • Новичок
  • 3
  • 0 / 0
Re: дубли страниц и правка в robots
« Ответ #2 : 24.03.2011, 20:06:46 »
Здраствуйте, тоже волнует такая проблема, я вот нашел такой код:

User-agent: *
Disallow: /administrator/
Disallow: /cache/
Disallow: /index.php?option
Disallow: /components/
Disallow: /component/*
Disallow: /index.php/*
Disallow: /includes/
Disallow: /installation/
Disallow: /language/
Disallow: /libraries/
Disallow: /media/
Disallow: /modules/
Disallow: /plugins/
Disallow: /templates/
Disallow: /tmp/
Disallow: /xmlrpc/
Disallow: /search/
Disallow: /*.pdf
Disallow: /*print=1
Disallow: /*type=atom
Disallow: /*type=rss
Disallow: /*task=rss

User-agent: Yandex
Disallow: /administrator/
Disallow: /cache/
Disallow: /index.php?option
Disallow: /components/
Disallow: /component/*
Disallow: /index.php/*
Disallow: /includes/
Disallow: /installation/
Disallow: /language/
Disallow: /libraries/
Disallow: /media/
Disallow: /modules/
Disallow: /plugins/
Disallow: /templates/
Disallow: /tmp/
Disallow: /xmlrpc/
Disallow: /search/
Disallow: /*.pdf
Disallow: /*print=1
Disallow: /*type=atom
Disallow: /*type=rss
Disallow: /*task=rss
Host: вашсайт.ru
Sitemap: http://вашсайт.ru/sitemap.xml

И кстати, не понятно, а зачем код прописывается два раза, в двух одинаковых видах?
*

sharp

  • Завсегдатай
  • 1173
  • 97 / 2
Re: дубли страниц и правка в robots
« Ответ #3 : 24.03.2011, 20:44:26 »
вообще то не в одинаковых видах.. первая часть для всех роботов а вторая только для яндекса :_)
Хочешь знать правду!? читай таблицу умножения.
Поисковое продвижение или раскрутка сайта!
*

dieems

  • Новичок
  • 3
  • 0 / 0
Re: дубли страниц и правка в robots
« Ответ #4 : 24.03.2011, 20:53:39 »
вообще то не в одинаковых видах.. первая часть для всех роботов а вторая только для яндекса :_)


а без этого он что, не поймёт?
Чтобы оставить сообщение,
Вам необходимо Войти или Зарегистрироваться
 

Странные дубли

Автор Lemonez

Ответов: 3
Просмотров: 3192
Последний ответ 03.09.2022, 23:02:10
от Alexeyman
Роботу Googlebot заблокирован доступ в файле robots.txt

Автор illimited

Ответов: 3
Просмотров: 4064
Последний ответ 29.05.2022, 14:57:55
от web1
Расширенные описания страниц в Joomla (микроданные, микроформаты, RDFa, schema.org)

Автор ELLE

Ответов: 151
Просмотров: 113664
Последний ответ 20.11.2021, 18:15:42
от Byzi
Решение - Редирект со страниц AMP на обычные

Автор draff

Ответов: 2
Просмотров: 1398
Последний ответ 20.11.2021, 17:03:03
от draff
Правильный robots.txt? [вопросы/обсуждение]

Автор wishlight

Ответов: 447
Просмотров: 210062
Последний ответ 20.11.2021, 16:53:49
от Byzi