Новости Joomla

Человек на GitHub ускорил Joomla в 600 раз на объёме 150к+ материалов в 1700+ категориях

Человек на GitHub ускорил Joomla в 600 раз на объёме 150к+ материалов в 1700+ категориях

👩‍💻 Человек на GitHub ускорил Joomla в 600 раз на объёме 150к+ материалов в 1700+ категориях. На старте его сайт на Joomla 3 вообще не смог обновиться на Joomla 5. Пришлось делать экспорт/импорт материалов. Проделав всё это он запустил-таки этот объём данных на Joomla 5. Тестовый скрипт грузил 200 материалов из этого объёма всего за 94 секунды ))) А главная страница с категориями грузилась 20 секунд. Добавив индекс для таблицы #__content

CREATE INDEX idx_catid_state ON #__content (catid, state);
он сократил время загрузки категорий до 1 секунды. Затем наш герой решил поковырять SQL-запрос в ArticleModel, который отвечает за выборку материалов. И решил заменить тип JOIN на STRAIGHT_JOIN для категорий.
// ->from($db->quoteName('#__content', 'a'))->from(    $db->quoteName('#__content', 'a')    . ' STRAIGHT_JOIN ' . $db->quoteName('#__categories', 'c')    . ' ON ' . $db->quoteName('c.id') . ' = ' . $db->quoteName('a.catid'))// ->join('LEFT', $db->quoteName('#__categories', 'c'), $db->quoteName('c.id') . ' = ' . $db->quoteName('a.catid'))
Что сократило загрузку 200 материалов из 150к с 94 секунд до 5. К слову сказать, боевой сайт на Joomla 3 крутится на 12CPU 64GB рамы. А все манипуляции с кодом он делает на базовом 1CPU 1GB сервере и замеры скорости даны именно для базового сервера. Но это всё в дискуссии, хотя в идеале должно вылиться в Pull Requests. Мы - Open Source сообщество, где никто никому ничего не должен. Джунгли. Но человек ищет пути оптимизации Joomla и предлагает решения. Если оказать поддержку и предложить помощь хотя бы с тестированием самых разнообразных сценариев, то возможно эти улучшения смогут войти в ядро. Пусть не быстро, пусть через несколько лет, пусть не все, но войдут. Достаточно предложить руку помощи и приложить немного усилий.
Дискуссию на GitHub можно почитать здесь.@joomlafeed#joomla #community #php

0 Пользователей и 1 Гость просматривают эту тему.
  • 3 Ответов
  • 1474 Просмотров
*

homelux

  • Захожу иногда
  • 191
  • 1 / 1
robots.txt
« : 15.06.2011, 15:54:03 »
Поясните пожалуйста знатоки, научился делать сайты на Joomla 1.5, пришла очередь оптимизировать под seo, здесь я совсем зеленый.
Вопросы:
взял за пример образеч файла в одной теме:

1. Disallow: /cache/
Disallow: /components/
Disallow: /includes/
Disallow: /language/
Disallow: /libraries/
Disallow: /media/
Disallow: /modules/
Disallow: /plugins/
Disallow: /templates/
Disallow: /tmp/
Disallow: /xmlrpc/

что именно будет запрещено в этих строках и зачем это нужно запрещать?

2. Для Google и Яндекса строки в robots должны быть одинаковы?

3. Приведенные примеры файла robots, выложенные на форуме, можно вставить в свой сайт или они зависят от того какие компоненты есть на сайте. т.е. для каждого сайта свой robots.txt?

4. Что будет если оставить robots.txt без изменений по умолчанию, как энто повлияет не индексацию?

Думаю эти вопросы интересны многим новичкам, заранее благодарен за ответы
*

skai

  • Moderator
  • 1198
  • 153 / 1
  • skaiseo
Re: robots.txt
« Ответ #1 : 15.06.2011, 17:15:20 »
ну сколько раз можно одно и тоже мусолить..  ((  ну неужели так трудно прочитать тему в шапке ветки?!..
Наполнение вашего сайта - 1т.р. стр. (текст, изображения, мета, перелинковка). Гарантия высокого ранжирования. SEO консультация в подарок.
----------------------------------------------------------------------------------------------
*

homelux

  • Захожу иногда
  • 191
  • 1 / 1
Re: robots.txt
« Ответ #2 : 15.06.2011, 21:00:36 »
читал тему в шапке, но там приведены примеры файла, по поводу заданных мной вопросов ничего не нашел.
*

skai

  • Moderator
  • 1198
  • 153 / 1
  • skaiseo
Re: robots.txt
« Ответ #3 : 15.06.2011, 22:17:07 »
1. что именно непонятно? К примеру /cache/ полностью закрывает директорию cache от индексирования. Остальное по аналогии.
Зачем? .. даже не знаю как ответить на такой шокирующий вопрос ))) - затем чтобы в индексе поисковой системы была информация необходимая пользователю, а не рабочие фалы.

2. для Яндекса индивидуально стоит прописывать только Host:

3. для каждого сайта свой robots.txt - но принципиальных различий нет.

4. будет много мусора в выдаче ПС, возможны проблемы с зеркальшиком, без указания sitemap возможно немного ухудшится эффективность обхода роботом - хотя всё кроме дублей не критично.
Наполнение вашего сайта - 1т.р. стр. (текст, изображения, мета, перелинковка). Гарантия высокого ранжирования. SEO консультация в подарок.
----------------------------------------------------------------------------------------------
Чтобы оставить сообщение,
Вам необходимо Войти или Зарегистрироваться
 

Роботу Googlebot заблокирован доступ в файле robots.txt

Автор illimited

Ответов: 3
Просмотров: 4071
Последний ответ 29.05.2022, 14:57:55
от web1
Правильный robots.txt? [вопросы/обсуждение]

Автор wishlight

Ответов: 447
Просмотров: 210066
Последний ответ 20.11.2021, 16:53:49
от Byzi
Как лучше прописать robots.txt?

Автор web1

Ответов: 2
Просмотров: 1251
Последний ответ 25.07.2021, 21:38:12
от web1
Разные robots.txt

Автор yyyuuu

Ответов: 7
Просмотров: 1235
Последний ответ 14.01.2021, 14:06:58
от rsn
Языки /en/ /ru/ проблема с входом в админку и редиректит на site.r/ru/robots.txt

Автор HolySong

Ответов: 0
Просмотров: 1126
Последний ответ 10.07.2020, 13:12:46
от HolySong