Премахване на HTTPS от индекса, защо имате нужда от върха

Предизвикателството дойде като резултат от отпусната стойка по време на ограничен часа ... уебмастър на клиента за да насочат своите отговорности.

Robo-Yandex изтича весело глупаво справка в сайта ... Не вижда ли грешки в индекса се оставят ...
В целия сайт се индексира два пъти, тъй като HTTP-версия и като HTTPS-версия.

И всички позиции nafig потънали ...

Как да изтрия дубликати?

Ами, първото нещо, което сме отстранили меню. Добре ... освен че дубликати не са оставени от индекса.

Опитахме се да оставят в deleteurl - няма причина да се премахнат!

Сложете чрез .htaccess пренасочване на 301 ред хвърля всичко, както трябва да бъде, но времето изтича и да остане в дубликати на индекса! Отново, няма причина да премахнете от ***** Яндекс ...

Въпросът е, кой не знае какво да изтриете страница от индекса, само вие можете да:
1) физически да се маха,
2) въвеждане на забрана за индексиране от robots.txt
3) поставяне на забрана за индексиране на страницата мета тагове

Но физически отстраняване на тематична страница на сайта, по-специално за насърчаване?

И колко близо до роботи, ако има е написано само относителен път, като /page15.html?

Имах идея, която не е намерил отговор в душата на тревожните на клиент: редуващи се сложи Noindex мета тагове на всички страници, дублирате, ги изхвърлят на индекса през DeleteUrl, при напускане на мета тагове индекс да се премахне и да се включат отново в индекса.

Ето как умело, че около този проблем!

Отидох на приятел seoshnyh и отговора, даден бързо:

на хостинг трябва да бъде две папки - за HTTP и HTTPS, за, просто хвърлят роботи с Disallow: / папка във версия HTTPS!

Само няма такава папка! Като цяло, това е ставите ...

Но аз изведнъж помислих - наистина бях първият с проблем в страните, и погледна в мрежата ...

И на Вашето внимание един прост, но елегантно решение е:

В .htaccess да се отбележи, че за с HTTPS версии Роботи има друго име. Да, да, да, да! Аз правя всичко ми SEO живот мислех, че името роботи файл, трябва да бъде robots.txt, а не по друг начин, а се оказва, че всичко е регламентирано .htaccess невидими за посетителите на уебсайта.

За втория му анормални Роботи създават текст открих, например, наречени роботи-https.txt предписва необходимите указания, за мен това е само за няколко линии

Поставете в схемата на сайта.

И в предписва .htaccess правило

RewriteEngine на
RewriteCond% на
RewriteRule ^ robots.txt $ роботи-https.txt

Ха! Тя работи с гръм и трясък!

Послепис Докато пишете публикация, мислех - какво пречи такъв начин да се скрие от любопитните очи на посетителите обикновени роботи? О, нищо!