Средство по борьбе с дублями, работающее на 100%

  • 1 Ответов
  • 239 Просмотров

0 Пользователей и 1 Гость просматривают эту тему.

*

alfa212

  • **
  • 12
  • 1
Долго бился с дублями на разных сайтах. Ставил всякие плагины, nodubles и т.д. Ничего нормально не помогало, думал, уже не решить эту проблему. Но вот недавно придумал такой вариант:
Вот 100% действенный метод (указываем в роботс):

Код
Disallow: /*?*
Disallow: /*?
Disallow: /*0-*
Disallow: /*1-*
Disallow: /*2-*
Disallow: /*3-*
Disallow: /*4-*
Disallow: /*5-*
Disallow: /*6-*
Disallow: /*7-*
Disallow: /*8-*
Disallow: /*9-*

Правда этот метод накладывает некоторые ограничения - во-первых, надо будет создавать пункты меню для каждого материала. Эти пункты можно засунуть в служебное меню, которое не будет видно на сайте. Но должны быть пункты для каждой статьи. Во-вторых, в алиасах пунктов меню нельзя использовать сочетания, приведенные выше, с цифрами и тире.
Ну вот в принципе и все - все урлы пунктов меню будут открыты для индексации, все урлы, содержащие цифры и тире (прямые урлы статей), будут закрыты для поисковиков. Пробовал, работает 100% - ставил даже на сайты с тысячами дублей в поиске - за две недели - месяц все лишнее чистилось из поиска.

Дубли в основном плодят блоги категорий и всякие плагины - то, что ссылается на статью по ее прямому адресу. А все адреса статей содержат их id. Вот тут-то мы их "поймаем".

Зачем так усложнять? Можно и проще. Если вставить в шаблон следующее, то дубли закроются от индексации без всяких ограничений:

Код: php
$vars = JFactory::getApplication()->getRouter()->getVars();                
$url_parts = explode('?', JRoute::_('index.php?' . http_build_query($vars), false), 2);
$path = $url_parts[0];

$uri = JURI::getInstance();
$canonical = $uri->toString(array('scheme', 'host', 'port')). $path;
$root = JURI::root(true);
            
if($canonical !== urldecode(JURI::current()) && $path !== "$root/index.php")
{
    JFactory::getDocument()->setMetaData('robots', 'noindex');
}

Далее в robots.txt можно закрыть от индексации страницы с GET параметрами (при желании).
« Последнее редактирование: 13.05.2016, 10:57:50 от Филипп Сорокин »
Ставь лайк, если согласен, и делай репост!

  => мои публикации
    => мои работы
      => спектр моих услуг