Новости Joomla

0 Пользователей и 1 Гость просматривают эту тему.
  • 447 Ответов
  • 200930 Просмотров
*

bgg87

  • Захожу иногда
  • 164
  • 2 / 0
  • Истина где-то рядом...
index.php. Удалить его или так и должно быть?
Это стандартная настройка. Если у вас сайт открывает без индекс.пхп и включены настройки SEO в админке ("Включить SEF" и "Перенаправление URL"), то в роботс это правило нужно оставить, а вот другие правила нужно проверить!
Читайте документацию по роботс. У вас куча других ошибок и если вы собираетесь заниматься сайтом, то разберитесь сами, иначе так и будете по форумам лазить в поиске элементарных вопросов...

https://yandex.ru/support/webmaster/controlling-robot/robots-txt.xml

P.S. Пару наводящих вопросов:
1. Зачем для разных роботов одинаковые правила создали? Е
2. Если сделали отдельные правила для основных роботов, зачем тогда это:
User-agent: *
3. Вам действительно нужно запретить индексацию картинок еще?
4. Зачем это:

User-agent: *
Disallow: /images/
...

User-agent: YandexImages
Disallow: /images/


*

bgg87

  • Захожу иногда
  • 164
  • 2 / 0
  • Истина где-то рядом...
User-agent: *
Disallow: /index.php?do=search*
Disallow: /index.php?
Disallow: /index.php
Disallow: /index.php?do=search*
Оставил это из вашего роботс и получился очень интересный набор правил! ;-)

P.s. Внимание - Загадка! Какое одно из 4х правил нужно оставить, чтобы исключить эти страницы? )
*

kentavr009

  • Новичок
  • 5
  • 0 / 0
Это стандартная настройка. Если у вас сайт открывает без индекс.пхп и включены настройки SEO в админке ("Включить SEF" и "Перенаправление URL"), то в роботс это правило нужно оставить, а вот другие правила нужно проверить!
Читайте документацию по роботс. У вас куча других ошибок и если вы собираетесь заниматься сайтом, то разберитесь сами, иначе так и будете по форумам лазить в поиске элементарных вопросов...

https://yandex.ru/support/webmaster/controlling-robot/robots-txt.xml

P.S. Пару наводящих вопросов:
1. Зачем для разных роботов одинаковые правила создали? Е
2. Если сделали отдельные правила для основных роботов, зачем тогда это:
User-agent: *
3. Вам действительно нужно запретить индексацию картинок еще?
4. Зачем это:

User-agent: *
Disallow: /images/
...

User-agent: YandexImages
Disallow: /images/



Индекс картинок закрыл так как они не уникальные, на одном марафоне прозвучала рекомендация закрыть их от индекса.
По поводу перенаправления url, я его настраивал через редирект 301 ( надеюсь мы об одном и том же говорим)
По поводу разбираться, этим как раз и занимаюсь, правда очень большой объем противоречивои инфы, вот и приходится по форумам лазить)))
Ну а насчет загадки не готов ответить(((
Насчет разных команд, прошу не закидывать меня помидорами, но я откровенно подсмотрел этот вариант на одном сайте, по генерации роботс. Немного доработал его, но в целом оставил как есть.
*

bgg87

  • Захожу иногда
  • 164
  • 2 / 0
  • Истина где-то рядом...
1.
Индекс картинок закрыл так как они не уникальные
Ок. тут вопросов нет.

2.
По поводу перенаправления url, я его настраивал через редирект 301 ( надеюсь мы об одном и том же говорим)
Еще раз читайте внимательно: Если включены настройки SEO в админке Joomla ("Включить SEF" и "Перенаправление URL")

3.
очень большой объем противоречивои инфы
Это где? Сколько раз читал инфу у яндекса (скинул ссылку ранее) - ни разу не нашел подобного! :)

4. Загадка не для вас, а для сударя svarg

5.
подсмотрел этот вариант на одном сайте, по генерации роботс
в топку!

Оставляете стандартный набор правил Joomla... далее составляете, то что нужно именно вам!

А то получается так: пациент пришел к доктору с болями в животе, а он ему прописал тоже что и другим! :) А что у пациента пес его знает! Аппендицит, гастрит, глисты...

По делу - Если уж совсем не знаете что делать, то ждете индексации сайта, и по мере того смотрите какие дубли страниц появились в индексе через вебмастер и в зависимости от списка ненужных страниц ставите соответствующие правила в роботс!
 
*

kentavr009

  • Новичок
  • 5
  • 0 / 0
1. Ок. тут вопросов нет.

2. Еще раз читайте внимательно: Если включены настройки SEO в админке Joomla ("Включить SEF" и "Перенаправление URL")

3. Это где? Сколько раз читал инфу у яндекса (скинул ссылку ранее) - ни разу не нашел подобного! :)

4. Загадка не для вас, а для сударя svarg

5. в топку!

Оставляете стандартный набор правил Joomla... далее составляете, то что нужно именно вам!

А то получается так: пациент пришел к доктору с болями в животе, а он ему прописал тоже что и другим! :) А что у пациента пес его знает! Аппендицит, гастрит, глисты...

По делу - Если уж совсем не знаете что делать, то ждете индексации сайта, и по мере того смотрите какие дубли страниц появились в индексе через вебмастер и в зависимости от списка ненужных страниц ставите соответствующие правила в роботс!
 
Спасибо за развернутый ответ!
По поводу ждать индексации, я просто начитался жути всякой про дубли страниц и тп, которые для яндекса критичны, вот и ищу лекарство заранее, боюсь как бы не переборщил.
*

bgg87

  • Захожу иногда
  • 164
  • 2 / 0
  • Истина где-то рядом...
как бы не переборщил.
Вы уже напортачили :)
Да, и дубли это плохо! Неизвестно какую из проиндексированных страниц робот выложит в поиске...
Надо сначала изучать вопрос, а потом запускать сайт.
А вообще можно не дожидаться индекса и просканировать сайт, например "XENU" или любой другой аналогичной прогой (что-то мне сразу эта мысль не пришла в голову), посмотреть какие страницы будут в списке и решать нужны ли они вам, а уже на основе этого списка составить роботс.
*

Apollon

  • Захожу иногда
  • 289
  • 1 / 0
1. Нужно запретить к индексации страницу /tags, но чтобы все страницы под ней tags/1..n.html остались открыты

Disallow: /tags/
Allow: /tags/*

Правильно?

2. Нужно закрыть поддомен poddomen.site.com, но оставить открытым основной сайт site.com

Disallow: /poddomen

Так? В саму папку подддомена роботс свой не нужно прописывать? (Поддомен лежит в папке "poddomen-5.1.2"
« Последнее редактирование: 27.06.2016, 15:22:33 от Apollon »
*

Apollon

  • Захожу иногда
  • 289
  • 1 / 0
Нужно запретить страницу /tags но разрешить ВСЕ страницы после нее например /tags/1.html

Disallow: /tags
Allow:

как правильно?
*

bb-pax

  • Осваиваюсь на форуме
  • 14
  • 1 / 0
1. Нужно запретить к индексации страницу /tags, но чтобы все страницы под ней tags/1..n.html остались открыты

Disallow: /tags/
Allow: /tags/*

Правильно?

2. Нужно закрыть поддомен poddomen.site.com, но оставить открытым основной сайт site.com

Disallow: /poddomen

Так? В саму папку подддомена роботс свой не нужно прописывать? (Поддомен лежит в папке "poddomen-5.1.2"

1. Не так. Обе строчки с точки зрения роботов одинаковы.
Можно так:
Disallow: /tags
Allow: /tags/

2. С точки зрения роботов - поддомен - это другой сайт. Для него нужен свой robots.txt
*

Apollon

  • Захожу иногда
  • 289
  • 1 / 0
Можно так:
Disallow: /tags
Allow: /tags/

А какие еще варианты?
*

bb-pax

  • Осваиваюсь на форуме
  • 14
  • 1 / 0
А какие еще варианты?
А чем этот не устраивает?
Опишите задачу подробнее, если смогу - помогу.
*

Apollon

  • Захожу иногда
  • 289
  • 1 / 0
А чем этот не устраивает?
Опишите задачу подробнее, если смогу - помогу.

Устраивает, прописал, жду пока Яндекс очухается.

Просто ради интереса, может еще как можно реализовать.
*

bb-pax

  • Осваиваюсь на форуме
  • 14
  • 1 / 0
Устраивает, прописал, жду пока Яндекс очухается.

Просто ради интереса, может еще как можно реализовать.
Ну я сам предпочёл не закрывать теги в robots.txt, а добавил для всех страниц тегов <meta name="robots" content="noindex, follow" />
Потому как это увеличивает связанность страниц и кол-во способов, которыми роботы могут добраться до статей.
При этом страницы тегов не попадают в индекс.
*

Apollon

  • Захожу иногда
  • 289
  • 1 / 0
При этом страницы тегов не попадают в индекс.


Мне наоборот надо, чтобы страницы тегов были в индексе, не нужна только одна страница со всем этим списком тегов.
*

KALIBUS

  • Осваиваюсь на форуме
  • 17
  • 1 / 0
Здравствуйте!
Ребята помогите пожалуйста.
Сайт был пролечен после заражения. Было удалено около 6000 левых страниц. Поставлен запрет на индексацию этих страниц. Практически все страницы имели ссылку:
сайт/oakley-......htm
сайт/ray-ban-.....htm
Страницы успешно запретились,
но существуют и такие ссылки, начинающиеся с заглавных символов, которые не закрылись и Яндекс успешно их хавает:
сайт/Ray-Ban-......htm
сайт/Оakley-......htm
Как прописать запрет?
*

bb-pax

  • Осваиваюсь на форуме
  • 14
  • 1 / 0
Здравствуйте!
Ребята помогите пожалуйста.
Сайт был пролечен после заражения. Было удалено около 6000 левых страниц. Поставлен запрет на индексацию этих страниц. Практически все страницы имели ссылку:
сайт/oakley-......htm
сайт/ray-ban-.....htm
Страницы успешно запретились,
но существуют и такие ссылки, начинающиеся с заглавных символов, которые не закрылись и Яндекс успешно их хавает:
сайт/Ray-Ban-......htm
сайт/Оakley-......htm
Как прописать запрет?
Ну так явно укажите в robots.txt оба варианта - и в нижнем регистре, и в верхнем.
*

bgg87

  • Захожу иногда
  • 164
  • 2 / 0
  • Истина где-то рядом...
А какие еще варианты?

Так:
Код
Disallow: /tags$
*

Stasweb

  • Завсегдатай
  • 1492
  • 24 / 0
Нашел вот такую статейку Альтернатива robots.txt так как Google мало обращает внимание на robots.txt а на
Код: robots
<meta name="robots" content="noindex, nofollow"/>
вполне нормально.
Вот и у себя сделал токую же функцию
Код: php-brief
<?php if(preg_match('#\?|^/search|/notify$|^/cart|askquestion|^/manufacturer|^/service|^/product_name|^/results|^/mf_name|^/by|^/dirDesc|^/user|^/vkhod-na-sajt.html?$|^/component/#', $_SERVER['REQUEST_URI'])){ ?>
<meta name="robots" content="noindex, nofollow" />
<?php } ?>

ну это не где не работает кроме
/produktsiya/korob-podarochnyj-dlya-pozdravitelnoj-papki-zolotoj-voin-tsvet-sinij-detail.html/askquestion.html
и та не
<meta name="robots" content="noindex, nofollow" />
а
<meta name="robots" content="NOINDEX, NOFOLLOW, NOARCHIVE, NOSNIPPET" />
robots.txt  старый такого вида
Спойлер
[свернуть]
А хотелось такого вида
Спойлер
[свернуть]
помогите разобраться что не так.
Может кто встречал ко-което другое решение в таком же типе или может есть какой плагин готовый подскажите.
« Последнее редактирование: 26.01.2017, 07:26:38 от Stasweb »
*

bgg87

  • Захожу иногда
  • 164
  • 2 / 0
  • Истина где-то рядом...
Я по началу тоже плясал с бубном, то одно удалял из индекса, то другое, а потом познакомился с каноническими ссылками и все это кануло в пропасть за ненадобностью :)
Теперь файл роботс выглядит аккуратно и содержательно :)

Например вот:
Код
User-agent: *
Allow: /templates/*.css
Allow: /templates/*.js
Allow: /components/*.css
Allow: /components/*.js
Allow: /media/*.js
Allow: /media/*.css
Allow: /plugins/*.css
Allow: /plugins/*.js
Disallow: /administrator/
Disallow: /bin/
Disallow: /cache/
Disallow: /cli/
Disallow: /components/
Disallow: /*component/
Disallow: /includes/
Disallow: /installation/
Disallow: /language/
Disallow: /layouts/
Disallow: /libraries/
Disallow: /logs/
Disallow: /modules/
Disallow: /plugins/
Disallow: /tmp/
Disallow: /portfolio
Disallow: /catalogue/
Disallow: /k2
Disallow: /*?catid
Disallow: /*?
Disallow: /*results
Disallow: /*.htm
Disallow: /*dirAsc
Disallow: /filtr
Allow: /*?start=
Host: www.site.ru
Sitemap: http://www.site.ru/sitemap_main.xml
Sitemap: http://www.site.ru/sitemap_remont.xml

Не знаю как со всеми остальными плагинами, но в VirtueMart пришлось повозится чтобы запустить правильную работу "canonical", раньше с этим была большая проблема, как сейчас обстоит дело с новыми версиями не в курсе.
*

Stasweb

  • Завсегдатай
  • 1492
  • 24 / 0
Лезет очень большое количество разных ссылок в панели
По поводу canonical вот допустим у меня товар
/produktsiya/korob-podarochnyj-dlya-pozdravitelnoj-papki-zolotoj-voin-tsvet-sinij-detail.html он
Код
<link href="https://lik-astana.kz/produktsiya/korob-podarochnyj-dlya-pozdravitelnoj-papki-zolotoj-voin-tsvet-sinij-detail.html" rel="canonical" />
Вот этот же товар
/produktsiya/produkt-podarochnye-koroba/korob-podarochnyj-dlya-pozdravitelnoj-papki-zolotoj-voin-tsvet-sinij-detail.html
Код
<link href="https://lik-astana.kz/produktsiya/korob-podarochnyj-dlya-pozdravitelnoj-papki-zolotoj-voin-tsvet-sinij-detail.html" rel="canonical" /> 
и опять же он rel="canonical".
Но я не про это
Лезут ссылки такие как
/askquestion.html
/product_name.html
/dirDesc.html
и так далее
Попробовал такой вариант
Код: php-brief
<?php if(preg_match('#\?|^/orders|^/search|/notify$|^/cart|^/manufacturer|^/user|^/2-uncategorised|^/component/|askquestion|service|results|product_name|dirDesc|mf_name|vkhod-na-sajt#', $_SERVER['REQUEST_URI'])){ ?>
<meta name="robots" content="noindex, nofollow" />
<?php } ?>
То же не работает
« Последнее редактирование: 26.01.2017, 07:25:46 от Stasweb »
*

bgg87

  • Захожу иногда
  • 164
  • 2 / 0
  • Истина где-то рядом...
В данном случае по "canonical" у вас все ок, один и тот же товар находится в 2х категориях...

По поводу "dirDesc" и т.п. у вас они лезут не из товара, а из категории и тут каноникал срабатывает правильно:
Страница:
https://lik-astana.kz/produktsiya/produkt-podarochnye-koroba/dirDesc.html
Исходный код:
Код
<link href="https://lik-astana.kz/produktsiya/produkt-podarochnye-koroba.html" rel="canonical" />

И в заключении: к чему это все, если этой страницы нет в индексе, думаю анологичных тоже не будет, т.к. каноникал работает:
Цитировать
site:https://lik-astana.kz/produktsiya/produkt-podarochnye-koroba/dirDesc.html
*

Stasweb

  • Завсегдатай
  • 1492
  • 24 / 0
А что с ошибками делать которые в панели вебмастера лезут?
И всетаки по поводу кода почему он не срабатывает подскажите.
Или что можно с кнопками сделать? Путаница уже с ошибками с консоли началась
*

bgg87

  • Захожу иногда
  • 164
  • 2 / 0
  • Истина где-то рядом...
А что с ошибками делать которые в панели вебмастера лезут?
И всетаки по поводу кода почему он не срабатывает подскажите.
Или что можно с кнопками сделать? Путаница уже с ошибками с консоли началась
1. Процитируйте ошибку, видимо не совсем понял о чем речь...
2. В php не силен.
3. Какие именно кнопки? Если вы про "сортировку товаров", то ничего - функция нужная на мой взгляд :)
*

Stasweb

  • Завсегдатай
  • 1492
  • 24 / 0
Вот допустим ошибка
Цитировать
/poligrafiya/by,ordering.html
пробую так их закрыть
Код: php
<?php
$dataArr = array(
'orders',
                    'com_search',
'search',
                    'notify',
                    'cart',
                    'com_users',
'user',
'askquestion',
'service',
'results',
'product_name',
'dirDesc',
'mf_name',
'by,ordering',
'vkhod-na-sajt'
                );
foreach ($dataArr as $value){
    if(in_array($value, $_REQUEST)){
        $this->addCustomTag('<meta name="robots" content="noindex, nofollow" />');
        break;
    }
}

?>

но код не срабатывает у страниц нет тега
Код
<meta name="robots" content="noindex, nofollow" />
« Последнее редактирование: 26.01.2017, 07:24:26 от Stasweb »
*

Stasweb

  • Завсегдатай
  • 1492
  • 24 / 0
Все теперь код срабатывает
Спойлер
[свернуть]
но дело в том что он срабатывает не только на страницах указанных здесь _https://lik-astana.kz/poligrafiya/by,ordering.html но и на нормальных страницах https://lik-astana.kz/poligrafiya.html где его не должно быть.
Подскажите в чем причина
*

Garun

  • Захожу иногда
  • 304
  • 17 / 3
Коллеги, хелп ми!
Если мне надо оставить ОТКРЫТЫМ для индексации раздел site.ru/video/ но ЗАКРЫТЬ всё, что глубже - типа site.ru/video/novoe-video/ и site.ru/video/noviy-rolik/ - как мнеправильно прописать директивы?
Готов к труду и обороне!
*

PavelK

  • Захожу иногда
  • 101
  • 1 / 0
Disallow: /component/
Disallow: /administrator/
Disallow: /bin/
Disallow: /cache/
Disallow: /cli/
Disallow: /components/
Disallow: /includes/
Disallow: /installation/
Disallow: /language/
Disallow: /layouts/
Disallow: /libraries/
Disallow: /logs/
Disallow: /modules/
Disallow: /plugins/
Disallow: /tmp/
Disallow: /*?
Disallow: /*&
Disallow: /*%
Disallow: /filter
Disallow: /*notify$
Disallow: /*askquestion
Disallow: /*cart

Имеет право на жизнь для сайта на VirtueMart?
*

mamnika

  • Осваиваюсь на форуме
  • 16
  • 0 / 0
Нужно ли закрывать от индексации страницы с формой ответов на форуме?
Форум Kunena

Disallow: /*reply*
*

ddenov

  • Осваиваюсь на форуме
  • 36
  • 0 / 0
Всем привет! У меня проблема, которую не могу решить уже длительное время, чем больше я ее решаю, тем больше она усугубляется. Суть:
ПС выдают товары на моем сайте через кривые ссылки, живой пример кривых ссылок:
http://ивмгрупп.рф/component/jshopping/product/view/10/67
http://ивмгрупп.рф/component/jshopping/product/view/127/359

нормальные ссылки при переходе на эти же товары внутри сайта:
http://ивмгрупп.рф/svetodiodnye-svetilniki-dlya-azs/product/view/10/67
http://ивмгрупп.рф/vzryvozashchishchennye-svetodiodnye-svetilniki/svetilniki-proton/product/view/127/359

как видите ПС выдает товары через component/jshopping/..... , соответственной и кривое изображение вида страницы. Кривых ссылок по факту нет, при этом ПС выдает одновременно и кривую и нормальную ссылку, кривая ссылка находится выше нормальной. Вебмастер Яндекс проиндексировал больше тысячи страниц моего сайта, хотя по факту их около 500. Что делать я уже не знаю. Подскажите, что нужно прописать в в robots.txt что бы кривые ссылки не индексировал, а нормальные показывал. Вот мой robots.txt
User-agent: *
Disallow: /administrator/
Disallow: /bin/
Disallow: /cache/
Disallow: /cli/
Disallow: /*components
Disallow: /images/
Disallow: /includes/
Disallow: /installation/
Disallow: /language/
Disallow: /layouts/
Disallow: /libraries/
Disallow: /logs/
Allow: /modules/
Disallow: /plugins/
Disallow: /*cart
Disallow: /*search
Disallow: /*wishlist
Disallow: /*?tmp
Disallow: /catalog/search
Disallow: /catalog/page/*
Allow: /components/com_jshopping/files/img_categories/
Allow: /components/com_jshopping/files/img_products/
Host: ивмгрупп.рф/
sitemap: http://ивмгрупп.рф/index.php?option=com_xmap&view=xml&tmpl=component&id=1
*

Edward_m

  • Захожу иногда
  • 146
  • 0 / 0
У меня вопрос . что делать если сайт был открыт и все "Г" прочитал бот и выставил в инет?
потом только robots.txt настроили
что делать?
Чтобы оставить сообщение,
Вам необходимо Войти или Зарегистрироваться
 

Роботу Googlebot заблокирован доступ в файле robots.txt

Автор illimited

Ответов: 3
Просмотров: 1791
Последний ответ 29.05.2022, 14:57:55
от web1
Как сделать правильный редирект

Автор gadjet

Ответов: 25
Просмотров: 12382
Последний ответ 17.05.2022, 01:22:12
от kabban
Как лучше прописать robots.txt?

Автор web1

Ответов: 2
Просмотров: 654
Последний ответ 25.07.2021, 21:38:12
от web1
Разные robots.txt

Автор yyyuuu

Ответов: 7
Просмотров: 666
Последний ответ 14.01.2021, 14:06:58
от rsn
Языки /en/ /ru/ проблема с входом в админку и редиректит на site.r/ru/robots.txt

Автор HolySong

Ответов: 0
Просмотров: 673
Последний ответ 10.07.2020, 13:12:46
от HolySong