Новости Joomla

Как оптимизировать сайт под нейросети? С 2023 года нейросети и чат-боты, основанные на больших...

Как оптимизировать сайт под нейросети? С 2023 года нейросети и чат-боты, основанные на больших...

👩‍💻 Как оптимизировать сайт под нейросети? С 2023 года нейросети и чат-боты, основанные на больших языковых моделях (LLM), начали радикально менять ландшафт SEO. Согласно исследованию Sparktoro, уже в 2024 году 58.5% поисковых запросов в США не приводили к переходу на сайты - пользователь получал ответ непосредственно в поиске.И это до внедрения AI ответов. После внедрения Google AI Overviews, а Яндексом блока нейроответа Алисы, ситуация только усугубилась, а среди владельцев инфосайтов началась небольшая паника.Что нужно сделать для AI-ранжирования?Во-первых, SEO-специалистам и маркетологам важно сменить саму парадигму мышления: запрос - позиция - страница. Делая оптимизацию под AI, мы больше не стремимся занимать позицию по конкретному ключу, и не думаем о том, что ранжируется вся страница. Мы думаем об интенте пользователя, и связанных с этим интентом сущностях. Глубоко понимая бизнес и ЦА предугадываем следующие за основным запросы. И представляем свой контент в максимально доступной и структурированной форме, как для пользователя, так и для LLM. В конечном счёте окончательно в прошлое уходят полотна с текстом, а страницы сайта всё больше начинают напоминать запись диалога с Chat GPT, отдельно взятые запросы и идеально структурированные и подтверждённые статистикой ёмкие ответы.Во-вторых, сама ваша страница теперь может быть на 5 странице, по запросу, который набрал пользователь. Но если на ней есть пассаж текста, который решит его проблему, то вы попадаете в блок нейроответа и получаете трафик. Таким образом в корне меняется и пользовательская привычка взаимодействия с контентом, и подходы к его оптимизации. Ключ, частотность, позиция страницы - это теперь скорее просто вектор, дающий возможность оценить результаты продвижения, а не чёткая метрика.➡️ Далее в статье рассказывается:- Файлы llms.txt и llms-full.txt для AIO- Структурированность и логика заголовков (H1–H6)- Дробление контента на автономные части (чанки)- Покрытие Query Fan-Out- Мультимодальный контент- Микроразметка

Schema.org- Атрибут
data-nosnippet- Внешнее продвижение сайта- Картографические сервисы, локальное SEOВ конце статьи дан чек-лист по оптимизации под нейросети.
Читать статьюСпасибо за ссылку участнику нашего сообщества Святославу Волкову (@eminents).#seo #ai

Плагин Поля - WT Yandex Map для Joomla

Плагин Поля - WT Yandex Map для Joomla.Плагин добавляет новый тип пользовательского поля для Joomla 4 - Яндекс.Карты. Он позволяет отображать метку на Яндекс картах в тех расширениях, которые поддерживают пользовательские поля (custom fields) в Joomla 4. Плагин бесплатный.👩‍💻 v.2.1.0. Что нового?- Улучшение UX. При взаимодействии со страницей на мобильных устройствах если карта отображается во всю ширину - она начинает прокручиваться вместо веб-страницы. Во избежание этой ситуации добавлена опция оверлея для карты. Теперь взаимодействие с картой возможно после клика по карте. Оверлей автоматически включается, когда курсор покидает границы контейнера карты и карту можно снова прокручивать.- Геолокация автора. Добавлена опция для поля, позволяющая определять местоположение автора. Таким образом при создании нового, к примеру, материала будет определено местоположение (браузер запросит разрешение) и его координаты будут добавлены в поле.- Joomla 6. Плагин успешно протестирован на Joomla 6Страница расширения.GitHub расширенияJoomla Extensions Directory@joomlafeed#joomla #yandex #расширения

0 Пользователей и 1 Гость просматривают эту тему.
  • 6 Ответов
  • 2061 Просмотров
*

Alex Kop

  • Захожу иногда
  • 111
  • 1 / 0
Здравствуйте, очень интересует как отнесутся поисковики к одинаковому контенту на двух разных сайтах. У меня два сайта размещенные на одном сервере, в одной папочке даже, сайты немного разной тематики (один по воздушным шарам и оформлению свадеб, а второй по оформлению свадеб цветами и другими клевыми штуками). Но есть надобность делать одинаковые материалы  на обоих сайтах с использованием одинаковых фото и описаний к ним. Читал, что использование чужих фото и текста не по вкусу поисковикам. Но тут фото и текст мои, как это повлияет на SEO и если отрицательно подскажите как лучше (правильнее) использовать информацию на сайтах так чтобы они были на пользу друг другу, а не во вред? Благодарю всех кто поможет советами)))
*

beliyadm

  • Легенда
  • 9758
  • 1665 / 66
  • Севастополь, Россия
плохо
Есть какие то экспериментальные теги типа
Код
<meta name="author" content="я автор">
<meta name="copyright" content="все права мои">
с этим вопросам лучше обратится на форум сеошников, мне как разработчику (нас тут большинство) совершенно параллельно на это SEO
Все истины, которые я хочу вам изложить, — бесстыдная ложь. Сделать всё хорошо
TLG: @Beliyadm
*

Alex Kop

  • Захожу иногда
  • 111
  • 1 / 0
плохо
Есть какие то экспериментальные теги типа
Код
<meta name="author" content="я автор">
<meta name="copyright" content="все права мои">
с этим вопросам лучше обратится на форум сеошников, мне как разработчику (нас тут большинство) совершенно параллельно на это SEO
Я люблю этот форум, наверняка здесь тоже найдутся знатоки SEO, раздел же есть.) А как вариант, другое название файла (фотки) сделать и немного изменить описание, такой вариант прокатит? Конечно много лишних манипуляций 
*

beliyadm

  • Легенда
  • 9758
  • 1665 / 66
  • Севастополь, Россия
другое название файла (фотки) сделать и немного изменить описание
Нет конечно, другой контент есть другой контент. Тут и дублей не будет и банов

Но я не SEO-шник, я их вообще ненавижу и хочу чтобы все разработчики собрались, собрали всех сеошников и убили их, мир станет чище
Все истины, которые я хочу вам изложить, — бесстыдная ложь. Сделать всё хорошо
TLG: @Beliyadm
*

capricorn

  • Завсегдатай
  • 1949
  • 118 / 3
Я думаю, что ничего плохого не будет для двух сайтов. ПС будет выдавать сайты тех, кого они первым проиндексируют. Тут важно, чтобы никто другой не успел раньше вас, "стащив" ваши материалы. Обычно ПС выдает несколько сайтов при поиске, допустим по текстовой фразе, причем количество их ограничено, и при этом видно, что народ "копирует" тексты. Два сайта это одно, а десять это уже другое. ПС выдаст, к примеру первые ваши три, а остальные нет. Причем неизвестно, попадут ли остальные в бан.

У меня был такой случай. Я размещал pdf файлы (технические проспекты приборов и пр.). Их сотни. Естественно, я брал их, как и все конкуренты, с сайта их производителя. Одни попали в выдачу, а другие нет. Я спросил в буржунете на форуме Google почему так. Мне ответили, что у него уже много таких файлов и посоветовали сфокусироваться на странице, где размещены эти файлы. То есть лучше что-то менять на одинаковых страницах разных сайтов, а не просто делать одинаковые сайты.





*

yandex_hb

  • Захожу иногда
  • 263
  • 12 / 3
Если контакты одинаковые, имхо, будет накладываться аффилиат фильтр.
А в чем сложность сделать разные тайтлы и описания? Фото также можно разделить 1/3 общие, 1/3 уникальные на каждый сайт.
*

Alex Kop

  • Захожу иногда
  • 111
  • 1 / 0
Если контакты одинаковые, имхо, будет накладываться аффилиат фильтр.
А в чем сложность сделать разные тайтлы и описания? Фото также можно разделить 1/3 общие, 1/3 уникальные на каждый сайт.
Что за контакты? Титлы, альты к фоткам и описания много времени занимают, хотел скопировать просто, но чувствую, что так делать не стоит. Наверное всетаки правильнее будет всю писанину написать по новой и фотки переименовать. А что за фильтр и контакты, по подробней бы?
Чтобы оставить сообщение,
Вам необходимо Войти или Зарегистрироваться