0 Пользователей и 1 Гость просматривают эту тему.
  • 1 Ответов
  • 706 Просмотров
*

alfa212

  • Осваиваюсь на форуме
  • 14
  • 1 / 0
Долго бился с дублями на разных сайтах. Ставил всякие плагины, nodubles и т.д. Ничего нормально не помогало, думал, уже не решить эту проблему. Но вот недавно придумал такой вариант:
Вот 100% действенный метод (указываем в роботс):

Код
Disallow: /*?*
Disallow: /*?
Disallow: /*0-*
Disallow: /*1-*
Disallow: /*2-*
Disallow: /*3-*
Disallow: /*4-*
Disallow: /*5-*
Disallow: /*6-*
Disallow: /*7-*
Disallow: /*8-*
Disallow: /*9-*

Правда этот метод накладывает некоторые ограничения - во-первых, надо будет создавать пункты меню для каждого материала. Эти пункты можно засунуть в служебное меню, которое не будет видно на сайте. Но должны быть пункты для каждой статьи. Во-вторых, в алиасах пунктов меню нельзя использовать сочетания, приведенные выше, с цифрами и тире.
Ну вот в принципе и все - все урлы пунктов меню будут открыты для индексации, все урлы, содержащие цифры и тире (прямые урлы статей), будут закрыты для поисковиков. Пробовал, работает 100% - ставил даже на сайты с тысячами дублей в поиске - за две недели - месяц все лишнее чистилось из поиска.

Дубли в основном плодят блоги категорий и всякие плагины - то, что ссылается на статью по ее прямому адресу. А все адреса статей содержат их id. Вот тут-то мы их "поймаем".
*

Филипп Сорокин

  • Завсегдатай
  • 1918
  • 160 / 4
  • разработчик.москва
Зачем так усложнять? Можно и проще. Если вставить в шаблон следующее, то дубли закроются от индексации без всяких ограничений:

Код: php
$vars = JFactory::getApplication()->getRouter()->getVars();                
$url_parts = explode('?', JRoute::_('index.php?' . http_build_query($vars), false), 2);
$path = $url_parts[0];

$uri = JURI::getInstance();
$canonical = $uri->toString(array('scheme', 'host', 'port')). $path;
$root = JURI::root(true);
            
if($canonical !== urldecode(JURI::current()) && $path !== "$root/index.php")
{
    JFactory::getDocument()->setMetaData('robots', 'noindex');
}

Далее в robots.txt можно закрыть от индексации страницы с GET параметрами (при желании).
« Последнее редактирование: 13.05.2016, 08:57:50 от Филипп Сорокин »
Чтобы оставить сообщение,
Вам необходимо Войти или Зарегистрироваться
 

Борьба с дублями

Автор p4o1

Ответов: 1
Просмотров: 855
Последний ответ 29.03.2018, 19:58:30
от wishlight
Борьба с дублями

Автор dimasan57

Ответов: 1
Просмотров: 686
Последний ответ 07.09.2016, 20:17:20
от Mihanja80
Проблема с дублями страниц

Автор silvassan

Ответов: 1
Просмотров: 675
Последний ответ 05.09.2016, 22:56:05
от SeBun
Не понятки с дублями

Автор Бродяга

Ответов: 1
Просмотров: 799
Последний ответ 01.08.2015, 19:45:36
от Sulpher
Тихий ужас и бардак с дублями

Автор kun333

Ответов: 1
Просмотров: 765
Последний ответ 25.01.2015, 20:01:23
от voland