Новости Joomla

WT IndexNow плагин для Joomla - отправка страниц сайта на переиндексацию в поисковые системы

WT IndexNow плагин для Joomla - отправка страниц сайта на переиндексацию в поисковые системы

👩‍💻 WT IndexNow плагин для Joomla - отправка страниц сайта на переиндексацию в поисковые системы.Пакет плагинов, обеспечивающий ручную и автоматическую отправку url адресов Joomla в поисковые системы на переиндексацию по протоколу IndexNow. Согласно документации протокол поддерживают все крупнейшие поисковые системы, кроме Google. Протокол служит для получения от сайтов URL, которые нужно переиндексировать заново или проиндексировать в первый раз как можно быстрее. Отправка адресов сайта таким образом существенно ускорит индексацию нового или изменённого контента поисковыми системами.Поисковые системы по этому протоколу обмениваются друг с другом данными, поэтому отправив URL в одну из них вы сообщаете их сразу всем. Протокол IndexNow поддерживают:- Amazon- Microsoft Bing- Naver- Seznam.cz- Yandex - YepСуточный лимит URL - 10000 в сутки. Возможна отправка вручную и автоматически. Поддерживаются:- материалы и категории материалов Joomla- контакты и категории контактов Joomla- SW JProjects - компонент каталога расширений для Joomla- JoomShopping - компонент интернет-магазина для Joomla- Phoca Download - компонент каталога файлоа для Joomla- Phoca Cart - компонент интернет-магазина для Joomla- RadicalMart - компонент интернет-магазина для JoomlaПакет плагинов работает с Joomla 4.3+. Тестировался на Joomla 5 и Joomla 6.Смотреть видео:- ВК Видео- RuTubeСсылки:Страница расширенияGitHub расширенияРаздел Поддержка протокола IndexNow в справке Яндекса@joomlafeed#joomla #seo #indexnow

Вышел WT AmoCRM - RadicalForm v.1.4.0 плагин интеграции Joomla с AmoCRM

Вышел WT AmoCRM - RadicalForm v.1.4.0 плагин интеграции Joomla с AmoCRM

Плагин отправки данных в Amo CRM из форм обратной связи Joomla, созданных с помощью профессионального плагина Radical Form. Требует библиотеку WT Amo CRM library.

v.1.4.0. Что нового?

Выбор типа поля AmoCRM: сделка или контакт.

Для полей Radical Form можно выбрать назначение, куда их отправлять: в поле сделки (лида), контакта или в комментарий к сделке.

Строгая типизация данных.

Для полей появился параметр типизации, который позволяет привести данные к нужным для AmoCRM типам: строка, число и т.д. Это необходимо для корректной передачи данных полей. отличных от текстовых (например, поле типа флаг).

Системные требования

Плагин бесплатный. Поддерживает Joomla 4.3-6.x. Для работы необходима установленная и настроенная библиотека WT AmoCRM.

0 Пользователей и 1 Гость просматривают эту тему.
  • 22 Ответов
  • 9446 Просмотров
*

Novik2

  • Захожу иногда
  • 90
  • 1 / 0
На момент создания сайта все его страницы содержат не уникальные текста. Хочется чтобы из-за этого сайт не отправился в бан.
Идея такая:
1. Закрыть весь сайт от индексации.
2. По мере добавления уникальных текстов, открывать только странички которые будут содержать уникальные текста.

Народ покритикуйте идею. Может кто-нибудь подскажет идею попроще?
Еще вопрос, а как собственно закрыть от индексации весь сайт? Примерно понимаю что нужен robots.txt, но не очень понимаю что там написать.
*

CityCat

  • Осваиваюсь на форуме
  • 40
  • 0 / 0
  • Алексей Voronov
В файле robots.txt

User-Agent: *
Disallow: / # блокирует доступ ко всему сайту
*

Novik2

  • Захожу иногда
  • 90
  • 1 / 0
Ну а сама идея вывода сайта из тени частями. Выскажитесь пжл )
*

arma

  • Завсегдатай
  • 1752
  • 81 / 3
Яндекс вроде слушается robots.txt, а вот в Google зачастую проскакивают в индексе закрытые страницы. Если уж блокировать доступ, то лучше делать эти материалы доступные только зарегистрированным к примеру.
*

Novik2

  • Захожу иногда
  • 90
  • 1 / 0
Нужно блокировать не доступ, а именно индексацию, доступ у людей набравших адрес в строку должен  быть
*

arma

  • Завсегдатай
  • 1752
  • 81 / 3
Ну тогда вставляйте в страницы мета тег <meta name="robots" content="noindex">
*

ELLE

  • Глобальный модератор
  • 4505
  • 893 / 0
Народ покритикуйте идею.
Плохая идея :-) Потом туго будет с индексацией в целом.
*

Novik2

  • Захожу иногда
  • 90
  • 1 / 0
Плохая идея :-) Потом туго будет с индексацией в целом.
Предложите свой вариант.
Ваша критика основана на опыте или на чем? Может какие то публикации читали? Поделитесь пжл.
А может я зря переживаю и сайт не попадет в бан если на нем около 1000 страниц плагиата?
« Последнее редактирование: 03.09.2012, 13:11:26 от Novik2 »
*

ELLE

  • Глобальный модератор
  • 4505
  • 893 / 0
дык 99% публикаций давно устарели) часть из них написана теми еще писаками) часть просто голый рерайт) ну и вообще все они зарабатывают на сапе)
> на опыте

А может я зря переживаю и сайт не попадет в бан если на нем около 1000 страниц плагиата?
это практически как пальцем в небо
« Последнее редактирование: 03.09.2012, 13:15:40 от ELLE »
*

Novik2

  • Захожу иногда
  • 90
  • 1 / 0
Как все таки дешевле  обойдется? Закрыть сайт от индексации и потом бороться с трудностями SEO или оставить открытым с риском залететь в бан (из бана кстати можно вообще выбраться?)?
*

ELLE

  • Глобальный модератор
  • 4505
  • 893 / 0
что значит дешевле? вы просто попадает на 100 руб. (стоимость домена) и все)
*

Novik2

  • Захожу иногда
  • 90
  • 1 / 0
Кроме 100 рублей придется пожертвовать половиной мозга, которую съест клиент в случае смены домена.
*

ELLE

  • Глобальный модератор
  • 4505
  • 893 / 0
что за клиент, сосед по парте? :)

только не обижайтесь, но делать сайт на копипасте и еще брать за это деньги - по меньшей мере не красиво=)
а чтоб потом ваш мозг остался цел объясните клиенту, что контент стоит заказать у копирайтеров
*

Pazys

  • Завсегдатай
  • 1738
  • 241 / 4
  • <a>А где я ошибся-то?</b>
1. Закрыть весь сайт от индексации.
2. По мере добавления уникальных текстов, открывать только странички которые будут содержать уникальные текста.

1. От Google никак ... он вконец офигел и лезет всюду. Я ему и робот давал и в его вебмастере удалял странички - ему пофиг.
2. По мере добавления текстов - публиковать, старые стереть совсем или просто не публиковать.
Ишак меня нюхал ...
Если помог - плюсуйте в карму.
*

ELLE

  • Глобальный модератор
  • 4505
  • 893 / 0
Pazys, слегка оффтоп, попробуй второй способ для Google (вторая ссылка в подписи) - мне помогло ;)
*

Pazys

  • Завсегдатай
  • 1738
  • 241 / 4
  • <a>А где я ошибся-то?</b>
Не ... Google абсолютно все-равно. Я читал те топики.

Он выдает результат так (около 200 различных ***ссылок, дал первую попавшуюся):
Цитировать
мойдомен/vopros?page=4&format=feed&type=rss
Описание веб-страницы недоступно из-за ограничений в файле robots.txt.
Подробнее...

Такой страницы не существует уже полгода.
В роботсе всегда было несколько ограничений на данную ссылку, вот пример из роботса для этого случая
Цитировать
Disallow: /*?*
Disallow: /*&*
Disallow: /*=rss*

А он все-равно держит в индексе.

Ишак меня нюхал ...
Если помог - плюсуйте в карму.
*

ELLE

  • Глобальный модератор
  • 4505
  • 893 / 0
ну так я про что там написала?))
открываем в роботсе и закрываем через мета тег - страницы пропадают из индекса.
и как он должен узнать что страница отдает 404, 301 или что-то иное если ты запретил посещать страницу?) вот он и держит ее в индексе - логично?
404ые отваливаются сами собой, как только Google узнает об этом.

есть еще один вариант для гугл-бота - x-robots-tag  ;D
« Последнее редактирование: 03.09.2012, 15:04:48 от ELLE »
*

Novik2

  • Захожу иногда
  • 90
  • 1 / 0
Клиенту трудно будет объяснить, что сайт-каталог за который он уже заплатил 20 тыров требует как минимум 1000*50(одна плохонькая статья)=50.000 денег на контетнт ))
*

ELLE

  • Глобальный модератор
  • 4505
  • 893 / 0
ну тогда что там объяснять)))
у вас в договоре прописано "гарантия на индексацию в ПС" или "какие-то позиции" - не думаю.
разработчики вообще мало об этом думают.
если вы знали и перед началом работ не предупредили - то это фактически скрытие истины, так сказать "срубил бабло по-легкому"
конечно доверия вам теперь не видать, и теперь вы пытаетесь прикрыть одно место=))
*

Novik2

  • Захожу иногда
  • 90
  • 1 / 0
Не-не-не...
Клиент сам говорит: "Берем инфу с сайтов фабрик с которыми сотрудничаем" - не больше не меньше.

Но мы то знаем, что потом его сайт отправится в бан, а виноваты будем мы.

Именно поэтому есть желание закрыться от индексации, а потом постепенно выплывать из прорубя уникальными текстами.

Адекватный способ подскажите  только )
*

ELLE

  • Глобальный модератор
  • 4505
  • 893 / 0
ну скармливать только уник-контент.
просто если весь сайт закрыт от индексации - значит что-то скрываете, тоже не супер вариант)
*

pvi1

  • Давно я тут
  • 566
  • 16 / 2
А тестовый поддомен test.mysite.ru я могу скрыть от индексации? Домен от этого не пострадает?
*

draff

  • Гуру
  • 5801
  • 434 / 7
  • ищу работу
В файле robots.txt
Disallow: / # блокирует доступ ко всему сайту
У клиента был закрыт сайт больше года, по его словам. И ни Google , ни в Яндекс, не было страниц, кроме главной.
В течении 3-4 недели, после снятия запрета, начали появляться ссылки в индексе ПС. Ну конечно пришлось помочь ПС прийти на сайт клиента.
Чтобы оставить сообщение,
Вам необходимо Войти или Зарегистрироваться
 

Убрать уровни подкатегорий в меню

Автор desaund1

Ответов: 0
Просмотров: 1372
Последний ответ 10.08.2017, 22:34:06
от desaund1
Изменить форму на главной ?

Автор warlocksp

Ответов: 2
Просмотров: 1227
Последний ответ 19.02.2017, 15:44:11
от warlocksp
Дублирование на сайте

Автор derenikp

Ответов: 3
Просмотров: 1352
Последний ответ 08.01.2017, 17:30:00
от derenikp
Переменная в ссылках.Не выполняется задаm

Автор ghostcom

Ответов: 25
Просмотров: 1637
Последний ответ 06.09.2016, 17:13:20
от ghostcom
ошибка "File for Model inventory not found"

Автор polgrig

Ответов: 0
Просмотров: 1390
Последний ответ 05.08.2016, 14:36:02
от polgrig