Новости Joomla

Человек на GitHub ускорил Joomla в 600 раз на объёме 150к+ материалов в 1700+ категориях

Человек на GitHub ускорил Joomla в 600 раз на объёме 150к+ материалов в 1700+ категориях

👩‍💻 Человек на GitHub ускорил Joomla в 600 раз на объёме 150к+ материалов в 1700+ категориях. На старте его сайт на Joomla 3 вообще не смог обновиться на Joomla 5. Пришлось делать экспорт/импорт материалов. Проделав всё это он запустил-таки этот объём данных на Joomla 5. Тестовый скрипт грузил 200 материалов из этого объёма всего за 94 секунды ))) А главная страница с категориями грузилась 20 секунд. Добавив индекс для таблицы #__content

CREATE INDEX idx_catid_state ON #__content (catid, state);
он сократил время загрузки категорий до 1 секунды. Затем наш герой решил поковырять SQL-запрос в ArticleModel, который отвечает за выборку материалов. И решил заменить тип JOIN на STRAIGHT_JOIN для категорий.
// ->from($db->quoteName('#__content', 'a'))->from(    $db->quoteName('#__content', 'a')    . ' STRAIGHT_JOIN ' . $db->quoteName('#__categories', 'c')    . ' ON ' . $db->quoteName('c.id') . ' = ' . $db->quoteName('a.catid'))// ->join('LEFT', $db->quoteName('#__categories', 'c'), $db->quoteName('c.id') . ' = ' . $db->quoteName('a.catid'))
Что сократило загрузку 200 материалов из 150к с 94 секунд до 5. К слову сказать, боевой сайт на Joomla 3 крутится на 12CPU 64GB рамы. А все манипуляции с кодом он делает на базовом 1CPU 1GB сервере и замеры скорости даны именно для базового сервера. Но это всё в дискуссии, хотя в идеале должно вылиться в Pull Requests. Мы - Open Source сообщество, где никто никому ничего не должен. Джунгли. Но человек ищет пути оптимизации Joomla и предлагает решения. Если оказать поддержку и предложить помощь хотя бы с тестированием самых разнообразных сценариев, то возможно эти улучшения смогут войти в ядро. Пусть не быстро, пусть через несколько лет, пусть не все, но войдут. Достаточно предложить руку помощи и приложить немного усилий.
Дискуссию на GitHub можно почитать здесь.@joomlafeed#joomla #community #php

0 Пользователей и 1 Гость просматривают эту тему.
  • 6 Ответов
  • 3391 Просмотров
*

Vler

  • Захожу иногда
  • 63
  • 0 / 0
  • Быстрая как Joomla
Яндекс и robots.txt
« : 23.09.2010, 11:29:13 »
    При проверки своего роботса в панели веб мастера в Яндакс пишет следующее
      Используемые секции
      Строка   
   
1-3   
User-agent: Yandex
Disallow:
Host: www.mysite.ru
   
   
21-21   
Sitemap: http://mysite.ru/component/xmap/?sitemap=1&view=xml 
  То есть Яндекс как я понимаю видит только эти строки ?
  Вот мой полный роботс
User-agent: Yandex
Disallow:
Host: www.mysite.ru

User-agent: *
Disallow: /administrator/
Disallow: /cache/
Disallow: /components/
Disallow: /images/
Disallow: /includes/
Disallow: /installation/
Disallow: /language/
Disallow: /libraries/
Disallow: /media/
Disallow: /modules/
Disallow: /plugins/
Disallow: /templates/
Disallow: /tmp/
Disallow: /xmlrpc/

Sitemap: http://mysite.ru/component/xmap/?sitemap=1&view=xml
      Подскажите конкретно что нужно прописать Яндексу чтоб он правильно сканировал сайт. Информации по поиску хватает но там каждый советует по своему. А как правильно?
*

ChaosHead

  • Гуру
  • 5242
  • 451 / 13
Re: Яндекс и robots.txt
« Ответ #1 : 23.09.2010, 13:07:41 »
Да сделайте просто вот так:

User-agent: *
Disallow: /administrator/
Disallow: /cache/
Disallow: /components/
Disallow: /images/
Disallow: /includes/
Disallow: /installation/
Disallow: /language/
Disallow: /libraries/
Disallow: /media/
Disallow: /modules/
Disallow: /plugins/
Disallow: /templates/
Disallow: /tmp/
Disallow: /xmlrpc/
Host: www.mysite.ru

Зачем от других Host скрывать Imho
Disallow: - это разрешит индексировать всё содержимое сайта,
« Последнее редактирование: 23.09.2010, 13:11:09 от ChaosHead »
*

MaRt

  • Захожу иногда
  • 356
  • 20 / 2
  • SEO master
Re: Яндекс и robots.txt
« Ответ #2 : 23.09.2010, 16:31:41 »
User-agent: *
Disallow: /?option=
Disallow: /?replyto=
Disallow: /?mosmsg=
Disallow: /?
Disallow: /profil/
Disallow: /index2.php?option=com_content
Disallow: /administrator/
Disallow: /cache/
Disallow: /components/
Disallow: /editor/
Disallow: /help/
Disallow: /includes/
Disallow: /language/
Disallow: /mambots/
Disallow: /media/
Disallow: /modules/
Disallow: /templates/
Disallow: /component/option,com_newsfeeds/
Disallow: /component/option,com_wrapper/
Тра та та
*

Vler

  • Захожу иногда
  • 63
  • 0 / 0
  • Быстрая как Joomla
Re: Яндекс и robots.txt
« Ответ #3 : 23.09.2010, 16:45:00 »
Да сделайте просто вот так:

User-agent: *
Disallow: /administrator/
Disallow: /cache/
Disallow: /components/
Disallow: /images/
Disallow: /includes/
Disallow: /installation/
Disallow: /language/
Disallow: /libraries/
Disallow: /media/
Disallow: /modules/
Disallow: /plugins/
Disallow: /templates/
Disallow: /tmp/
Disallow: /xmlrpc/
Host: www.mysite.ru

Зачем от других Host скрывать Imho
Disallow: - это разрешит индексировать всё содержимое сайта,
А что делать с Sitemap ?
User-agent: *
Disallow: /?option=
Disallow: /?replyto=
Disallow: /?mosmsg=
Disallow: /?
Disallow: /profil/
Disallow: /index2.php?option=com_content
Disallow: /administrator/
Disallow: /cache/
Disallow: /components/
Disallow: /editor/
Disallow: /help/
Disallow: /includes/
Disallow: /language/
Disallow: /mambots/
Disallow: /media/
Disallow: /modules/
Disallow: /templates/
Disallow: /component/option,com_newsfeeds/
Disallow: /component/option,com_wrapper/

    Ого здесь начинают мучать сомнения и возникает мысль что каждый делает robots по своему. А есть ли какие мануалы разработчиков Joomla чтоб почитать как делать этот robots правильный, оптимизированный под разные поисковики?
*

MaRt

  • Захожу иногда
  • 356
  • 20 / 2
  • SEO master
Re: Яндекс и robots.txt
« Ответ #4 : 23.09.2010, 16:50:59 »
возьми оба и сделай из них один большой...и будет тебе счастье, а карту влей туда сам, я уже не помню .как ее делать...я картой не заморачиваюсь
Тра та та
*

ChaosHead

  • Гуру
  • 5242
  • 451 / 13
*

valagoff

  • Давно я тут
  • 984
  • 110 / 0
Чтобы оставить сообщение,
Вам необходимо Войти или Зарегистрироваться
 

Роботу Googlebot заблокирован доступ в файле robots.txt

Автор illimited

Ответов: 3
Просмотров: 4063
Последний ответ 29.05.2022, 14:57:55
от web1
Правильный robots.txt? [вопросы/обсуждение]

Автор wishlight

Ответов: 447
Просмотров: 210059
Последний ответ 20.11.2021, 16:53:49
от Byzi
Яндекс и его роботы

Автор Захар

Ответов: 2
Просмотров: 857
Последний ответ 22.10.2021, 09:52:59
от Захар
Как лучше прописать robots.txt?

Автор web1

Ответов: 2
Просмотров: 1251
Последний ответ 25.07.2021, 21:38:12
от web1
JL NO doubles не работает с Яндекс Маркетом

Автор espam

Ответов: 0
Просмотров: 896
Последний ответ 27.06.2021, 22:54:24
от espam