Новости Joomla

Как тестировать Joomla PHP-разработчику? Компонент Patch tester.

👩‍💻 Как тестировать Joomla PHP-разработчику? Компонент Patch tester.Joomla - open source PHP-фреймворк с готовой админкой. Его основная разработка ведётся на GitHub. Для того, чтобы международному сообществу разработчиков было удобнее тестировать Pull Requests был создан компонент Patch Tester, который позволяет "накатить" на текущую установку Joomla именно те изменения, которые необходимо протестировать. На стороне инфраструктуры Joomla для каждого PR собираются готовые пакеты, в которых находится ядро + предложенные изменения. В каждом PR обычно находятся инструкции по тестированию: куда зайти, что нажать, ожидаемый результат. Тестировщики могут предположить дополнительные сценарии, исходя из своего опыта и найти баги, о которых сообщить разработчику. Или не найти, и тогда улучшение или исправление ошибки быстрее войдёт в ядро Joomla. Напомню, что для того, чтобы PR вошёл в ядро Joomla нужны минимум 2 положительных теста от 2 участников сообщества, кроме автора. Видео на YouTubeВидео на VK ВидеоВидео на RuTubeКомпонент на GitHub https://github.com/joomla-extensions/patchtester@joomlafeed#joomla #php #webdev #community

0 Пользователей и 1 Гость просматривают эту тему.
  • 22 Ответов
  • 9449 Просмотров
*

Novik2

  • Захожу иногда
  • 90
  • 1 / 0
На момент создания сайта все его страницы содержат не уникальные текста. Хочется чтобы из-за этого сайт не отправился в бан.
Идея такая:
1. Закрыть весь сайт от индексации.
2. По мере добавления уникальных текстов, открывать только странички которые будут содержать уникальные текста.

Народ покритикуйте идею. Может кто-нибудь подскажет идею попроще?
Еще вопрос, а как собственно закрыть от индексации весь сайт? Примерно понимаю что нужен robots.txt, но не очень понимаю что там написать.
*

CityCat

  • Осваиваюсь на форуме
  • 40
  • 0 / 0
  • Алексей Voronov
В файле robots.txt

User-Agent: *
Disallow: / # блокирует доступ ко всему сайту
*

Novik2

  • Захожу иногда
  • 90
  • 1 / 0
Ну а сама идея вывода сайта из тени частями. Выскажитесь пжл )
*

arma

  • Завсегдатай
  • 1752
  • 81 / 3
Яндекс вроде слушается robots.txt, а вот в Google зачастую проскакивают в индексе закрытые страницы. Если уж блокировать доступ, то лучше делать эти материалы доступные только зарегистрированным к примеру.
*

Novik2

  • Захожу иногда
  • 90
  • 1 / 0
Нужно блокировать не доступ, а именно индексацию, доступ у людей набравших адрес в строку должен  быть
*

arma

  • Завсегдатай
  • 1752
  • 81 / 3
Ну тогда вставляйте в страницы мета тег <meta name="robots" content="noindex">
*

ELLE

  • Глобальный модератор
  • 4505
  • 893 / 0
Народ покритикуйте идею.
Плохая идея :-) Потом туго будет с индексацией в целом.
*

Novik2

  • Захожу иногда
  • 90
  • 1 / 0
Плохая идея :-) Потом туго будет с индексацией в целом.
Предложите свой вариант.
Ваша критика основана на опыте или на чем? Может какие то публикации читали? Поделитесь пжл.
А может я зря переживаю и сайт не попадет в бан если на нем около 1000 страниц плагиата?
« Последнее редактирование: 03.09.2012, 13:11:26 от Novik2 »
*

ELLE

  • Глобальный модератор
  • 4505
  • 893 / 0
дык 99% публикаций давно устарели) часть из них написана теми еще писаками) часть просто голый рерайт) ну и вообще все они зарабатывают на сапе)
> на опыте

А может я зря переживаю и сайт не попадет в бан если на нем около 1000 страниц плагиата?
это практически как пальцем в небо
« Последнее редактирование: 03.09.2012, 13:15:40 от ELLE »
*

Novik2

  • Захожу иногда
  • 90
  • 1 / 0
Как все таки дешевле  обойдется? Закрыть сайт от индексации и потом бороться с трудностями SEO или оставить открытым с риском залететь в бан (из бана кстати можно вообще выбраться?)?
*

ELLE

  • Глобальный модератор
  • 4505
  • 893 / 0
что значит дешевле? вы просто попадает на 100 руб. (стоимость домена) и все)
*

Novik2

  • Захожу иногда
  • 90
  • 1 / 0
Кроме 100 рублей придется пожертвовать половиной мозга, которую съест клиент в случае смены домена.
*

ELLE

  • Глобальный модератор
  • 4505
  • 893 / 0
что за клиент, сосед по парте? :)

только не обижайтесь, но делать сайт на копипасте и еще брать за это деньги - по меньшей мере не красиво=)
а чтоб потом ваш мозг остался цел объясните клиенту, что контент стоит заказать у копирайтеров
*

Pazys

  • Завсегдатай
  • 1738
  • 241 / 4
  • <a>А где я ошибся-то?</b>
1. Закрыть весь сайт от индексации.
2. По мере добавления уникальных текстов, открывать только странички которые будут содержать уникальные текста.

1. От Google никак ... он вконец офигел и лезет всюду. Я ему и робот давал и в его вебмастере удалял странички - ему пофиг.
2. По мере добавления текстов - публиковать, старые стереть совсем или просто не публиковать.
Ишак меня нюхал ...
Если помог - плюсуйте в карму.
*

ELLE

  • Глобальный модератор
  • 4505
  • 893 / 0
Pazys, слегка оффтоп, попробуй второй способ для Google (вторая ссылка в подписи) - мне помогло ;)
*

Pazys

  • Завсегдатай
  • 1738
  • 241 / 4
  • <a>А где я ошибся-то?</b>
Не ... Google абсолютно все-равно. Я читал те топики.

Он выдает результат так (около 200 различных ***ссылок, дал первую попавшуюся):
Цитировать
мойдомен/vopros?page=4&format=feed&type=rss
Описание веб-страницы недоступно из-за ограничений в файле robots.txt.
Подробнее...

Такой страницы не существует уже полгода.
В роботсе всегда было несколько ограничений на данную ссылку, вот пример из роботса для этого случая
Цитировать
Disallow: /*?*
Disallow: /*&*
Disallow: /*=rss*

А он все-равно держит в индексе.

Ишак меня нюхал ...
Если помог - плюсуйте в карму.
*

ELLE

  • Глобальный модератор
  • 4505
  • 893 / 0
ну так я про что там написала?))
открываем в роботсе и закрываем через мета тег - страницы пропадают из индекса.
и как он должен узнать что страница отдает 404, 301 или что-то иное если ты запретил посещать страницу?) вот он и держит ее в индексе - логично?
404ые отваливаются сами собой, как только Google узнает об этом.

есть еще один вариант для гугл-бота - x-robots-tag  ;D
« Последнее редактирование: 03.09.2012, 15:04:48 от ELLE »
*

Novik2

  • Захожу иногда
  • 90
  • 1 / 0
Клиенту трудно будет объяснить, что сайт-каталог за который он уже заплатил 20 тыров требует как минимум 1000*50(одна плохонькая статья)=50.000 денег на контетнт ))
*

ELLE

  • Глобальный модератор
  • 4505
  • 893 / 0
ну тогда что там объяснять)))
у вас в договоре прописано "гарантия на индексацию в ПС" или "какие-то позиции" - не думаю.
разработчики вообще мало об этом думают.
если вы знали и перед началом работ не предупредили - то это фактически скрытие истины, так сказать "срубил бабло по-легкому"
конечно доверия вам теперь не видать, и теперь вы пытаетесь прикрыть одно место=))
*

Novik2

  • Захожу иногда
  • 90
  • 1 / 0
Не-не-не...
Клиент сам говорит: "Берем инфу с сайтов фабрик с которыми сотрудничаем" - не больше не меньше.

Но мы то знаем, что потом его сайт отправится в бан, а виноваты будем мы.

Именно поэтому есть желание закрыться от индексации, а потом постепенно выплывать из прорубя уникальными текстами.

Адекватный способ подскажите  только )
*

ELLE

  • Глобальный модератор
  • 4505
  • 893 / 0
ну скармливать только уник-контент.
просто если весь сайт закрыт от индексации - значит что-то скрываете, тоже не супер вариант)
*

pvi1

  • Давно я тут
  • 566
  • 16 / 2
А тестовый поддомен test.mysite.ru я могу скрыть от индексации? Домен от этого не пострадает?
*

draff

  • Гуру
  • 5801
  • 434 / 7
  • ищу работу
В файле robots.txt
Disallow: / # блокирует доступ ко всему сайту
У клиента был закрыт сайт больше года, по его словам. И ни Google , ни в Яндекс, не было страниц, кроме главной.
В течении 3-4 недели, после снятия запрета, начали появляться ссылки в индексе ПС. Ну конечно пришлось помочь ПС прийти на сайт клиента.
Чтобы оставить сообщение,
Вам необходимо Войти или Зарегистрироваться
 

Убрать уровни подкатегорий в меню

Автор desaund1

Ответов: 0
Просмотров: 1379
Последний ответ 10.08.2017, 22:34:06
от desaund1
Изменить форму на главной ?

Автор warlocksp

Ответов: 2
Просмотров: 1231
Последний ответ 19.02.2017, 15:44:11
от warlocksp
Дублирование на сайте

Автор derenikp

Ответов: 3
Просмотров: 1355
Последний ответ 08.01.2017, 17:30:00
от derenikp
Переменная в ссылках.Не выполняется задаm

Автор ghostcom

Ответов: 25
Просмотров: 1642
Последний ответ 06.09.2016, 17:13:20
от ghostcom
ошибка "File for Model inventory not found"

Автор polgrig

Ответов: 0
Просмотров: 1394
Последний ответ 05.08.2016, 14:36:02
от polgrig