Большинство сеошников пользуются проверенными методами продвижения: оптимизация контента, оптимизация сайта, покупка ссылок. Однако надо понимать, что поисковые системы отлично знают этапы продвижения и сайты, которые пользуются этими методами, очень легко, как минмиум, просто определить. Я всегда стараюсь продвигать сайты путями, которые далеки от мнения масс, об одном таком эксперименте я хочу рассказать.
Думаю никто не будет спорить со следующим моим утверждением: если ПС видит, что над сайтом не работает сеошник, то она будет более либерально относиться к этому сайту. Постепенно все к этому приходят: начинают добавлять естественное ссылочное, покупать безанкорные ссылки, перестают оптимизировать контент и т.д. Т.е. мы уже пришли к тому, чтобы наши сайты казались естественными по ссылочному и контенту. Однако никто не думет про третий рычаг — именно оптимизация сайта.
В какой-то момент я задал вопрос себе: вот у меня сайт, на него ведут только естественные ссылки, контент действительно для людей, выходит в разное время… Как еще может поисковая система узнать о том, что кто-то «продвигает» мой ресурс. Единственное, что остается — это грамотно оптимизированное внутреннее ядро сайта, а именно правильный robots.txt, где закрыты все дубли, идеальный sitemap со всеми страницами и т.д.. Вот даже логически, как может сайт, который якобы не продвигается, иметь грамотный robots и sitemap? По-любому хоть кто-то, но советовал что-то по оптимизации, и ПС уже понимает, что бонусы при ранжировании такому ресурсу давать не надо.
Итак, суть эксперимента: около года назад я вынес это предположение и решил его проверить, удалил на паре старых сайтов роботс и sitemap (сайты были без особых дублей), а также на паре молодых заведомо не ставил ничего.
Прошел год и можно подвести итоги.
1) Один из ресурсов — англоязычный сайт компании, в которой я работаю CodingStaff. Как видите, там нет ни того, ни того. Буквально через 1,5 месяца после удаления ресурс занял все топовые позиции по основным ключам. Стату по понятным причинам я показать не могу, но вы можете проверить основные запросы в гуле — dotnetnuke development, dotnetnuke skins и т.д.
2) Второй сайт — http://bezdepozitnyj-bonus-poker.ru. Тут тоже я все убрал, сайт сейчас занимает топовые позиции по очень высококонкурентным ключам.
Еще успешный вариант получен на одном стартапе, светить его пока не хочется, а также на одном совершенно молодом сайте (если для какого-то ресерча, то пишите, засвечу).
Выборка мизерная, но потому это и экспереминт, а не утверждение. Но задумка эксперимента имеет право на обсуждение. Я же для себя решил уже никогда не добавлять сайт в аддурилки, не добавлять без надобности (а эта надобность все же бывает часто) robots и sitemap.
P.S. я уже предвижу вопрос, почему же у меня на блоге есть robots. Я отвечу: WP автоматически создает этот файл и у всех сайтов на WP он присутствует. Наоборот, удалив его, я бы как-то засветился. Да и блог сеошный, так что имею полное право закрыть все ненужное))
Но вот все же почему чистые html сайты так хорошо продвигаются? Может быть не только из-за отсутствия лишнего кода, но и отсутствии элементов, указывающих на продвижение ресурса?
Похожие записи:
[…] О своих мыслях и мини-эксперименте можете почитать тут. Разработка интернет-магазинов и […]
в общем… оптимизируешь — хорошо. не оптимизируешь — тоже хорошо. пойду подпорчу у себя роботс.тxт
А я для своих HTML сайтов всегда делаю и робота и карту, может и правда не стоит? Надо этот вопрос проанализировать.
Зачем html сайту роботс? У него и так все чисто))
Да вы возьмите любого конкурента, любой посещаемый сайт и т.д … И увидите что там должно быть. А по теме — бред. » — Стой, кто идет? — Поисковый бот. — Входи, входи, только через окно, и не удивляйся что там яма с капканом…»
Не согласен на счёт отсутствия sitemap, но информация, как говориться, к размышлению.
Спасибо! Надо попробовать..Сайтов 10 старых наберется точно)
Всё же данный метод — это и не метод совсем) То, что какие-то страницы куда-то там вылезли именно из-за того, что были удалены sitemap и robots — подтверждений этому никаких. Может там изначально было слишком много закрыто… Забавно конечно это всё, не более. Но спасибо за эксперимент)
Ну я бы поспорил с этим вопросом.. Я лично добавляю,а то в выдаче может быть много не нужного мусора.