Новости Joomla

Quantum Manager нужен сообществу, а автору нужна ваша поддержка!

Quantum Manager нужен сообществу, а автору нужна ваша поддержка!Файловый менеджер Quantum — одно...

Файловый менеджер Quantum — одно из самых популярных решений для Joomla, созданное разработчиком из сообщества Joomla, Дмитрием Цымбалом (@tsymbalmitia). Он делает Quantum удобным, безопасным и современным, обновляет его, исправляет уязвимости и отвечает пользователям — всё это в свободное от основной работы время.

Теперь настал момент для следующего шага: развитие проекта требует больше времени и ресурсов.

0 Пользователей и 1 Гость просматривают эту тему.
  • 22 Ответов
  • 9388 Просмотров
*

Novik2

  • Захожу иногда
  • 90
  • 1 / 0
На момент создания сайта все его страницы содержат не уникальные текста. Хочется чтобы из-за этого сайт не отправился в бан.
Идея такая:
1. Закрыть весь сайт от индексации.
2. По мере добавления уникальных текстов, открывать только странички которые будут содержать уникальные текста.

Народ покритикуйте идею. Может кто-нибудь подскажет идею попроще?
Еще вопрос, а как собственно закрыть от индексации весь сайт? Примерно понимаю что нужен robots.txt, но не очень понимаю что там написать.
*

CityCat

  • Осваиваюсь на форуме
  • 40
  • 0 / 0
  • Алексей Voronov
В файле robots.txt

User-Agent: *
Disallow: / # блокирует доступ ко всему сайту
*

Novik2

  • Захожу иногда
  • 90
  • 1 / 0
Ну а сама идея вывода сайта из тени частями. Выскажитесь пжл )
*

arma

  • Завсегдатай
  • 1752
  • 81 / 3
Яндекс вроде слушается robots.txt, а вот в Google зачастую проскакивают в индексе закрытые страницы. Если уж блокировать доступ, то лучше делать эти материалы доступные только зарегистрированным к примеру.
*

Novik2

  • Захожу иногда
  • 90
  • 1 / 0
Нужно блокировать не доступ, а именно индексацию, доступ у людей набравших адрес в строку должен  быть
*

arma

  • Завсегдатай
  • 1752
  • 81 / 3
Ну тогда вставляйте в страницы мета тег <meta name="robots" content="noindex">
*

ELLE

  • Глобальный модератор
  • 4505
  • 893 / 0
Народ покритикуйте идею.
Плохая идея :-) Потом туго будет с индексацией в целом.
*

Novik2

  • Захожу иногда
  • 90
  • 1 / 0
Плохая идея :-) Потом туго будет с индексацией в целом.
Предложите свой вариант.
Ваша критика основана на опыте или на чем? Может какие то публикации читали? Поделитесь пжл.
А может я зря переживаю и сайт не попадет в бан если на нем около 1000 страниц плагиата?
« Последнее редактирование: 03.09.2012, 13:11:26 от Novik2 »
*

ELLE

  • Глобальный модератор
  • 4505
  • 893 / 0
дык 99% публикаций давно устарели) часть из них написана теми еще писаками) часть просто голый рерайт) ну и вообще все они зарабатывают на сапе)
> на опыте

А может я зря переживаю и сайт не попадет в бан если на нем около 1000 страниц плагиата?
это практически как пальцем в небо
« Последнее редактирование: 03.09.2012, 13:15:40 от ELLE »
*

Novik2

  • Захожу иногда
  • 90
  • 1 / 0
Как все таки дешевле  обойдется? Закрыть сайт от индексации и потом бороться с трудностями SEO или оставить открытым с риском залететь в бан (из бана кстати можно вообще выбраться?)?
*

ELLE

  • Глобальный модератор
  • 4505
  • 893 / 0
что значит дешевле? вы просто попадает на 100 руб. (стоимость домена) и все)
*

Novik2

  • Захожу иногда
  • 90
  • 1 / 0
Кроме 100 рублей придется пожертвовать половиной мозга, которую съест клиент в случае смены домена.
*

ELLE

  • Глобальный модератор
  • 4505
  • 893 / 0
что за клиент, сосед по парте? :)

только не обижайтесь, но делать сайт на копипасте и еще брать за это деньги - по меньшей мере не красиво=)
а чтоб потом ваш мозг остался цел объясните клиенту, что контент стоит заказать у копирайтеров
*

Pazys

  • Завсегдатай
  • 1738
  • 241 / 4
  • <a>А где я ошибся-то?</b>
1. Закрыть весь сайт от индексации.
2. По мере добавления уникальных текстов, открывать только странички которые будут содержать уникальные текста.

1. От Google никак ... он вконец офигел и лезет всюду. Я ему и робот давал и в его вебмастере удалял странички - ему пофиг.
2. По мере добавления текстов - публиковать, старые стереть совсем или просто не публиковать.
Ишак меня нюхал ...
Если помог - плюсуйте в карму.
*

ELLE

  • Глобальный модератор
  • 4505
  • 893 / 0
Pazys, слегка оффтоп, попробуй второй способ для Google (вторая ссылка в подписи) - мне помогло ;)
*

Pazys

  • Завсегдатай
  • 1738
  • 241 / 4
  • <a>А где я ошибся-то?</b>
Не ... Google абсолютно все-равно. Я читал те топики.

Он выдает результат так (около 200 различных ***ссылок, дал первую попавшуюся):
Цитировать
мойдомен/vopros?page=4&format=feed&type=rss
Описание веб-страницы недоступно из-за ограничений в файле robots.txt.
Подробнее...

Такой страницы не существует уже полгода.
В роботсе всегда было несколько ограничений на данную ссылку, вот пример из роботса для этого случая
Цитировать
Disallow: /*?*
Disallow: /*&*
Disallow: /*=rss*

А он все-равно держит в индексе.

Ишак меня нюхал ...
Если помог - плюсуйте в карму.
*

ELLE

  • Глобальный модератор
  • 4505
  • 893 / 0
ну так я про что там написала?))
открываем в роботсе и закрываем через мета тег - страницы пропадают из индекса.
и как он должен узнать что страница отдает 404, 301 или что-то иное если ты запретил посещать страницу?) вот он и держит ее в индексе - логично?
404ые отваливаются сами собой, как только Google узнает об этом.

есть еще один вариант для гугл-бота - x-robots-tag  ;D
« Последнее редактирование: 03.09.2012, 15:04:48 от ELLE »
*

Novik2

  • Захожу иногда
  • 90
  • 1 / 0
Клиенту трудно будет объяснить, что сайт-каталог за который он уже заплатил 20 тыров требует как минимум 1000*50(одна плохонькая статья)=50.000 денег на контетнт ))
*

ELLE

  • Глобальный модератор
  • 4505
  • 893 / 0
ну тогда что там объяснять)))
у вас в договоре прописано "гарантия на индексацию в ПС" или "какие-то позиции" - не думаю.
разработчики вообще мало об этом думают.
если вы знали и перед началом работ не предупредили - то это фактически скрытие истины, так сказать "срубил бабло по-легкому"
конечно доверия вам теперь не видать, и теперь вы пытаетесь прикрыть одно место=))
*

Novik2

  • Захожу иногда
  • 90
  • 1 / 0
Не-не-не...
Клиент сам говорит: "Берем инфу с сайтов фабрик с которыми сотрудничаем" - не больше не меньше.

Но мы то знаем, что потом его сайт отправится в бан, а виноваты будем мы.

Именно поэтому есть желание закрыться от индексации, а потом постепенно выплывать из прорубя уникальными текстами.

Адекватный способ подскажите  только )
*

ELLE

  • Глобальный модератор
  • 4505
  • 893 / 0
ну скармливать только уник-контент.
просто если весь сайт закрыт от индексации - значит что-то скрываете, тоже не супер вариант)
*

pvi1

  • Давно я тут
  • 566
  • 16 / 2
А тестовый поддомен test.mysite.ru я могу скрыть от индексации? Домен от этого не пострадает?
*

draff

  • Гуру
  • 5801
  • 434 / 7
  • ищу работу
В файле robots.txt
Disallow: / # блокирует доступ ко всему сайту
У клиента был закрыт сайт больше года, по его словам. И ни Google , ни в Яндекс, не было страниц, кроме главной.
В течении 3-4 недели, после снятия запрета, начали появляться ссылки в индексе ПС. Ну конечно пришлось помочь ПС прийти на сайт клиента.
Чтобы оставить сообщение,
Вам необходимо Войти или Зарегистрироваться
 

Убрать уровни подкатегорий в меню

Автор desaund1

Ответов: 0
Просмотров: 1350
Последний ответ 10.08.2017, 22:34:06
от desaund1
Изменить форму на главной ?

Автор warlocksp

Ответов: 2
Просмотров: 1205
Последний ответ 19.02.2017, 15:44:11
от warlocksp
Дублирование на сайте

Автор derenikp

Ответов: 3
Просмотров: 1326
Последний ответ 08.01.2017, 17:30:00
от derenikp
Переменная в ссылках.Не выполняется задаm

Автор ghostcom

Ответов: 25
Просмотров: 1612
Последний ответ 06.09.2016, 17:13:20
от ghostcom
ошибка "File for Model inventory not found"

Автор polgrig

Ответов: 0
Просмотров: 1368
Последний ответ 05.08.2016, 14:36:02
от polgrig