Новости Joomla

Человек на GitHub ускорил Joomla в 600 раз на объёме 150к+ материалов в 1700+ категориях

Человек на GitHub ускорил Joomla в 600 раз на объёме 150к+ материалов в 1700+ категориях

👩‍💻 Человек на GitHub ускорил Joomla в 600 раз на объёме 150к+ материалов в 1700+ категориях. На старте его сайт на Joomla 3 вообще не смог обновиться на Joomla 5. Пришлось делать экспорт/импорт материалов. Проделав всё это он запустил-таки этот объём данных на Joomla 5. Тестовый скрипт грузил 200 материалов из этого объёма всего за 94 секунды ))) А главная страница с категориями грузилась 20 секунд. Добавив индекс для таблицы #__content

CREATE INDEX idx_catid_state ON #__content (catid, state);
он сократил время загрузки категорий до 1 секунды. Затем наш герой решил поковырять SQL-запрос в ArticleModel, который отвечает за выборку материалов. И решил заменить тип JOIN на STRAIGHT_JOIN для категорий.
// ->from($db->quoteName('#__content', 'a'))->from(    $db->quoteName('#__content', 'a')    . ' STRAIGHT_JOIN ' . $db->quoteName('#__categories', 'c')    . ' ON ' . $db->quoteName('c.id') . ' = ' . $db->quoteName('a.catid'))// ->join('LEFT', $db->quoteName('#__categories', 'c'), $db->quoteName('c.id') . ' = ' . $db->quoteName('a.catid'))
Что сократило загрузку 200 материалов из 150к с 94 секунд до 5. К слову сказать, боевой сайт на Joomla 3 крутится на 12CPU 64GB рамы. А все манипуляции с кодом он делает на базовом 1CPU 1GB сервере и замеры скорости даны именно для базового сервера. Но это всё в дискуссии, хотя в идеале должно вылиться в Pull Requests. Мы - Open Source сообщество, где никто никому ничего не должен. Джунгли. Но человек ищет пути оптимизации Joomla и предлагает решения. Если оказать поддержку и предложить помощь хотя бы с тестированием самых разнообразных сценариев, то возможно эти улучшения смогут войти в ядро. Пусть не быстро, пусть через несколько лет, пусть не все, но войдут. Достаточно предложить руку помощи и приложить немного усилий.
Дискуссию на GitHub можно почитать здесь.@joomlafeed#joomla #community #php

0 Пользователей и 1 Гость просматривают эту тему.
  • 12 Ответов
  • 1237 Просмотров
*

SergioCre

  • Новичок
  • 4
  • 0 / 0
И снова robots.txt
« : 15.02.2015, 13:40:31 »
Всем привет.  !
Joomla 3.
Имеется ряд страниц, которые необходимо закрыть от индексации. К примеру:
Страница:
http://сайт.ru/index.php/home/east
Закрываю:
Disallow: /*east

Проверяю здесь:
https://webmaster.yandex.ru/robots.xml
Написано - результат - разрешен.

Не понимаю в чем ошибка. Почему Яндекс индексирует страницу? Прошу помощи.
Спасибо...
*

Webb

  • Захожу иногда
  • 304
  • 19 / 2
  • rusinmd
Re: И снова robots.txt
« Ответ #1 : 15.02.2015, 22:13:58 »
Disallow: /*/east
*

SergioCre

  • Новичок
  • 4
  • 0 / 0
Re: И снова robots.txt
« Ответ #2 : 16.02.2015, 19:32:31 »
Проверяю здесь:
https://webmaster.yandex.ru/robots.xml

/*/east и */east

результат:  разрешен.

Значит индексируется?
не понимаю в чем проблема. Все же правильно кажется сделано.
*

antony2606

  • Давно я тут
  • 634
  • 46 / 4
  • Работаем!
Re: И снова robots.txt
« Ответ #3 : 16.02.2015, 19:37:58 »
Цитировать
результат:  разрешен.

Значит индексируется?

Значит, что роботс корректно настроен, а не то, что он индексирует или не индексирует
*

SergioCre

  • Новичок
  • 4
  • 0 / 0
Re: И снова robots.txt
« Ответ #4 : 17.02.2015, 17:33:19 »
Это такая  версия или точная информация? Ведь этот инструмент на яшке сделан именно для того, что бы проверять конкретные урлы на предмет их индексирования.
*

antony2606

  • Давно я тут
  • 634
  • 46 / 4
  • Работаем!
Re: И снова robots.txt
« Ответ #5 : 17.02.2015, 21:00:20 »
Это такая  версия или точная информация? Ведь этот инструмент на яшке сделан именно для того, что бы проверять конкретные урлы на предмет их индексирования.

 Сорри, не так понял.
результат:  разрешен. - означает, что открыт к инексированию.

закройте весь index.php
*

stendapuss

  • Давно я тут
  • 945
  • 20 / 0
  • Valera Stankevich
Re: И снова robots.txt
« Ответ #6 : 17.02.2015, 22:41:00 »
Disallow: *east
*

Webb

  • Захожу иногда
  • 304
  • 19 / 2
  • rusinmd
Re: И снова robots.txt
« Ответ #7 : 17.02.2015, 23:11:59 »
Проверяю здесь:
https://webmaster.yandex.ru/robots.xml

/*/east и */east

результат:  разрешен.

Значит индексируется?
не понимаю в чем проблема. Все же правильно кажется сделано.
Где написано разрешен?
https://webmaster.yandex.ru/robots.xml
Это сервис проверки правельности заполнения роботса, проверка на ошибки в нём!
Добавь в роботс Disallow: /*/east
и проверь тут запрещенный URL https://webmaster.yandex.ru/addurl.xml
*

stendapuss

  • Давно я тут
  • 945
  • 20 / 0
  • Valera Stankevich
Re: И снова robots.txt
« Ответ #8 : 17.02.2015, 23:26:23 »
На странице, второе видео. Как проверять на Ян робот.тхт.
http://www.mani-mani-net.ru/%D0%B2%D0%B8%D0%B4%D0%B5%D0%BE-%D0%BE%D0%BD%D0%BB%D0%B0%D0%B9%D0%BD-%D1%83%D1%87%D0%B5%D0%B1%D0%BD%D0%BE%D0%B5?start=6
У меня вот такой робот. Все работает. Вставьте свои значения. На ян проверяйте. Разрешен, это разрешен к индексу. Запрешен к индексу. В низу пишет на основание чего запрещен.
Из этого робот.тхт можно скопировать только некоторые строчки. Которые подходят вам на сайт. Этот файл не полностью. Чисто для примера.
Для каждого сайта свой индивидуальный робот.тхт.
После того как закинете на сайт. Проверять надо на Яндекс вебмастер. Чтоб не закрыть чего лишнего. Или не оставить открытым. Что и как здесь закрыто работает. И у вас будет, если не будет открыто директивой Allow.
Спойлер
[свернуть]
« Последнее редактирование: 19.02.2015, 00:44:03 от stendapuss »
*

SergioCre

  • Новичок
  • 4
  • 0 / 0
Re: И снова robots.txt
« Ответ #9 : 18.02.2015, 13:45:44 »
Спасибо но ссылочка на видео некорректна. Можно еще раз в виде ссылки?
*

stendapuss

  • Давно я тут
  • 945
  • 20 / 0
  • Valera Stankevich
Re: И снова robots.txt
« Ответ #10 : 18.02.2015, 14:17:40 »
Спасибо но ссылочка на видео некорректна. Можно еще раз в виде ссылки?
Поправил ссылку, там кино еще как сделать робот.тхт и другие видео по Joomla.
*

Webb

  • Захожу иногда
  • 304
  • 19 / 2
  • rusinmd
Re: И снова robots.txt
« Ответ #11 : 18.02.2015, 20:53:02 »
FAQ : robots.txt для Joomla!

Такого роботса еще не видел  %)

ser-agent: *
- Это что за хренотень. Бот от твоего имени?
Куча постов про роботс и на этом форуме тем более, нет, надо своё придумать. И побежали все копировать.
« Последнее редактирование: 18.02.2015, 20:56:34 от Webb »
*

stendapuss

  • Давно я тут
  • 945
  • 20 / 0
  • Valera Stankevich
Re: И снова robots.txt
« Ответ #12 : 18.02.2015, 22:01:03 »
FAQ : robots.txt для Joomla!

Такого роботса еще не видел  %)

ser-agent: *
- Это что за хренотень. Бот от твоего имени?
Куча постов про роботс и на этом форуме тем более, нет, надо своё придумать. И побежали все копировать.
Для не понятливы, написано . У меня вот такой робот. Все работает. Вставьте свои значения
Для особо одаренных. User-agent скопировал в торопях ser-agent без U. Весь робот не надо копировать, надо только что подходит под ваш сайт взять. Одну строчку. И вставить в свой робот.
Так же не забыть дописать:
Host и Sitemap.
Не кому не кто не писал, что надо весь робот скопировать и вставить. Надо скопировать одну, две, три строчки...Которые подходят под определенный сайт. Или просто как пример посмотреть и вписать в свой робот.тхт.
Там видно первакласнику, что кусок робот.тхт. Нет не начала не конца.
Не надо всех считать...
Взяли скопировали и вставили. Там страниц 10 с адресами закрыто от индекса. Ду-к поймет, что весь нельзя вставить в свой робот.
Школьник поймет, что это часть робота.
Если вы Webb не поняли меня дурака с моей хрено.., уж простите. Не думал что такое можно не понять. Не думал что здесь есть первоклассники. Писал для взрослых. И возьмут этот робот.тхс и вставить на сайт.
Вы самый умный, увидели.
А остальные пол робот.тхт вставили на сайт и улыбаются.
« Последнее редактирование: 18.02.2015, 22:06:23 от stendapuss »
Чтобы оставить сообщение,
Вам необходимо Войти или Зарегистрироваться
 

Роботу Googlebot заблокирован доступ в файле robots.txt

Автор illimited

Ответов: 3
Просмотров: 4064
Последний ответ 29.05.2022, 14:57:55
от web1
Правильный robots.txt? [вопросы/обсуждение]

Автор wishlight

Ответов: 447
Просмотров: 210062
Последний ответ 20.11.2021, 16:53:49
от Byzi
Как лучше прописать robots.txt?

Автор web1

Ответов: 2
Просмотров: 1251
Последний ответ 25.07.2021, 21:38:12
от web1
Разные robots.txt

Автор yyyuuu

Ответов: 7
Просмотров: 1235
Последний ответ 14.01.2021, 14:06:58
от rsn
Языки /en/ /ru/ проблема с входом в админку и редиректит на site.r/ru/robots.txt

Автор HolySong

Ответов: 0
Просмотров: 1126
Последний ответ 10.07.2020, 13:12:46
от HolySong