mehrere Dateien vor Robots schützen

maba

Angesehenes Mitglied
Ich habe mehrere Dateien mit dem selben Namen in verschiedenen Unterverzeichnissen. Nun möchte ich alle diese Dateien vor Robots schützen und dies möglichst einfach in robots.txt schreiben. Kann mir jemand einen Hinweis geben?
 
Danke für den Link, aber da steht nichts zu meinem Problem. Ist dies gar nicht möglich?
 
Du meinst mit:
Disallow:/gesperrte_seite.htm
soll für alle gleichnamigen Dateien gelten, die mitunter auch in anderen Verzeichnissen stehen? Das geht meines erachtens leider nicht.

Gruß Ronny
 
Zurück
Oben