Эксперимент: умышленное удаление robots.txt и sitemap для повышения в выдаче

Большинство сеошников пользуются проверенными методами продвижения: оптимизация контента, оптимизация сайта, покупка ссылок. Однако надо понимать, что поисковые системы отлично знают этапы продвижения и сайты, которые пользуются этими методами, очень легко, как минмиум, просто определить. Я всегда стараюсь продвигать сайты путями, которые далеки от мнения масс, об одном таком эксперименте я хочу рассказать.

Думаю никто не будет спорить со следующим моим утверждением: если ПС видит, что над сайтом не работает сеошник, то она будет более либерально относиться к этому сайту. Постепенно все к этому приходят: начинают добавлять естественное ссылочное, покупать безанкорные ссылки, перестают оптимизировать контент и т.д. Т.е. мы уже пришли к тому, чтобы наши сайты казались естественными по ссылочному и контенту. Однако никто не думет про третий рычаг — именно оптимизация сайта.

В какой-то момент я задал вопрос себе: вот у меня сайт, на него ведут только естественные ссылки, контент действительно для людей, выходит в разное время… Как еще может поисковая система узнать о том, что кто-то «продвигает» мой ресурс. Единственное, что остается — это грамотно оптимизированное внутреннее ядро сайта, а именно правильный robots.txt, где закрыты все дубли, идеальный sitemap со всеми страницами и т.д.. Вот даже логически, как может сайт, который якобы не продвигается, иметь грамотный robots и sitemap? По-любому хоть кто-то, но советовал что-то по оптимизации, и ПС уже понимает, что бонусы при ранжировании такому ресурсу давать не надо.

Итак, суть эксперимента: около года назад я вынес это предположение и решил его проверить, удалил на паре старых сайтов роботс и sitemap (сайты были без особых дублей), а также на паре молодых заведомо не ставил ничего.

Прошел год и можно подвести итоги.

1) Один из ресурсов — англоязычный сайт компании, в которой я работаю CodingStaff. Как видите, там нет ни того, ни того. Буквально через 1,5 месяца после удаления ресурс занял все топовые позиции по основным ключам. Стату по понятным причинам я показать не могу, но вы можете проверить основные запросы в гуле — dotnetnuke development, dotnetnuke skins и т.д.

2) Второй сайт — http://bezdepozitnyj-bonus-poker.ru. Тут тоже я все убрал, сайт сейчас занимает топовые позиции по очень высококонкурентным ключам.

Еще успешный вариант получен на одном стартапе, светить его пока не хочется, а также на одном совершенно молодом сайте (если для какого-то ресерча, то пишите, засвечу).

Выборка мизерная, но потому это и экспереминт, а не утверждение. Но задумка эксперимента имеет право на обсуждение. Я же для себя решил уже никогда не добавлять сайт в аддурилки, не добавлять без надобности (а эта надобность все же бывает часто) robots и sitemap.

P.S. я уже предвижу вопрос, почему же у меня на блоге есть robots. Я отвечу: WP автоматически создает этот файл и у всех сайтов на WP он присутствует. Наоборот, удалив его, я бы как-то засветился. Да и блог сеошный, так что имею полное право закрыть все ненужное))

Но вот все же почему чистые html сайты так хорошо продвигаются? Может быть не только из-за отсутствия лишнего кода, но и отсутствии элементов, указывающих на продвижение ресурса?

Похожие записи:

9 Ответов to “Эксперимент: умышленное удаление robots.txt и sitemap для повышения в выдаче”

  1. […] О своих мыслях и мини-эксперименте можете почитать тут. Разработка интернет-магазинов и […]

  2. в общем… оптимизируешь — хорошо. не оптимизируешь — тоже хорошо. пойду подпорчу у себя роботс.тxт :)

  3. А я для своих HTML сайтов всегда делаю и робота и карту, может и правда не стоит? Надо этот вопрос проанализировать.

  4. Да вы возьмите любого конкурента, любой посещаемый сайт и т.д … И увидите что там должно быть. А по теме — бред. » — Стой, кто идет? — Поисковый бот. — Входи, входи, только через окно, и не удивляйся что там яма с капканом…»

  5. Не согласен на счёт отсутствия sitemap, но информация, как говориться, к размышлению.

  6. Всё же данный метод — это и не метод совсем) То, что какие-то страницы куда-то там вылезли именно из-за того, что были удалены sitemap и robots — подтверждений этому никаких. Может там изначально было слишком много закрыто… Забавно конечно это всё, не более. Но спасибо за эксперимент)

  7. Ну я бы поспорил с этим вопросом.. Я лично добавляю,а то в выдаче может быть много не нужного мусора.

Написать комментарий