Некоторые сайты работают с поддержкой протокола шифроания https. Однако почти всегда версия с htpps создает дубль главной версии. Я попробую разобраться, как на это рагирует яндекс и гугл. О моих мыслях можете прочитать в данной статье.
Хотя и Гугл и Яндекс уже давно уверяют, что проблема с дублированным контентом решается, что тег more на wordpress вообще не учитывается, это далеко не так. Алгоритмы еще не совершенны и некоторые занижение при дублированном контенте идут всегда.
Мэтт Каттс, в своем подкасте к вебмастерам, сказал, что СУЩЕСТВЕННЫХ проблем быть не должно. Однако ранжирование протокола до автоматизма не доведено и нужно работать на тестовых доменах. Можно сделать вывод, что работы над этой отраслью ведутся, но лучше подстраховаться и уберечь себя от возможных проблем.
А проблемы может быть две:
- Дублированный контент
- Потеря ссылочной массы
Проблемы решаются с помощью 301 редиректа. Если же страница с https нужна посетителям, то нужно прописать rel=canonical и в нем определить главную страницу. Конечно, определенный вес ссылок потеряется, но это лучше, чем ничего не предпринимать. Также в данном случае обязательно сделайте абсолютные сслыки.
Мы можем прописать закрытие в роботсе, сделать noindex и т.д., но это только решит проблему дублированного контента, проблема потери ссылочной массы останется…
Гугл собирается сделать входящие ссылки на https равноценными http, но это все в перспективе. Мой вам совет: если нужна страница с https, то только rel=canonical. Если не нужна, то делаем 301 редирект в .htaccess.
Похожие записи: