0 Пользователей и 1 Гость просматривают эту тему.
  • 0 Ответов
  • 902 Просмотров
*

Kinimania

  • Осваиваюсь на форуме
  • 43
  • 0 / 0
Здравствуйте!
Кто знает в чем дело может быть
В Google робот сканирует сайт и ключевые слова в содержании выдает совсем левые какие-то,  sans, fell, script и т.д.
Т.е робот прошелся по всему содержимому сайта и определил эти слова как ключевые?
Может поудалять просто все статьи и т.д. которые остались с шаблона? Т.е. может просто десятки материалов на сайте он их сканирует и определяет такие ключевые слова?
А нужных статей всего пару штук и он им не отдает предпочтение?
Может в robot.txt запретить доступ ко всем эти левым материалам кроме статей?
Может создание sitemap поможет?
Как-то робот в общем сканирует не то что надо)
« Последнее редактирование: 18.04.2015, 12:13:23 от Kinimania »
Чтобы оставить сообщение,
Вам необходимо Войти или Зарегистрироваться
 

Странные дубли

Автор Lemonez

Ответов: 3
Просмотров: 1602
Последний ответ 03.09.2022, 23:02:10
от Alexeyman
В вебмастере появляются левые страницы

Автор Dmitriy M

Ответов: 1
Просмотров: 397
Последний ответ 22.09.2021, 19:14:32
от Dmitriy M
Как удалить странные дубли из поисковика?

Автор Elimelech

Ответов: 1
Просмотров: 509
Последний ответ 14.09.2021, 15:41:54
от ForQue
Составляю семантическое ядро, где конкретно нужно прописывать слова?

Автор Руслан Н.

Ответов: 9
Просмотров: 1779
Последний ответ 24.02.2017, 00:30:44
от ELLE
Стоит ли в описании категории выделять слова?

Автор Артём 2014

Ответов: 5
Просмотров: 1154
Последний ответ 13.02.2016, 11:45:59
от ChaosHead