Verbieten oder Noindex auf Subdomain mit robots.txt

Habe ich dev.example.com und www.example.com gehostet auf verschiedenen subdomains. Ich will crawler löschen Sie alle Datensätze der dev subdomain, sondern Sie bleiben auf www. Ich bin mit git zum speichern der code für beide, also idealerweise möchte ich beide Seiten verwenden das gleiche robots.txt Datei.

Ist es möglich, verwenden Sie eine robots.txt Datei und haben es crawler ausgeschlossen von der dev subdomain?

InformationsquelleAutor Kirk Ouimet | 2011-02-05

Schreibe einen Kommentar