htaccess datei für alle sichtbar?

micky

Angesehenes Mitglied
Hallo allerseits,

leider kann ja jeder der eine URL aufruft auch die htaccess Datei einsehen.
Kann ich diese datei unsichtbat machen?

Oder weisse Schrift auf weissem Hintergrund nehmen, damit es nicht lesbar ist?

Ich wünsche nicht, das man meine htaccess Datei lesen kann.

Hat da jemand einen Tipp wie das geht?


viele grüße
micky
 
QUOTE (micky @ Mi 7.07.2010, 13:09)leider kann ja jeder der eine URL aufruft auch die htaccess Datei einsehen.
Kann ich diese datei unsichtbat machen?


Sicher, daß die Datei richtig benannt wurde?

Die muß

.htaccess

mit führendem Punkt heißen. Dann sollte normalerweise die Serversoftware das Anzeigen unterbinden.

Wenn ich auf meiner Domain sql-und-xml.de die .htaccess direkt aufrufe, erhalte ich eine entsprechende Fehlermeldung 'Zugriff verweigert'. Auf server-daten.de gibt es so eine Datei nicht, deshalb die andere Domain zum Testen nehmen.



QUOTE (micky @ Mi 7.07.2010, 13:09)Oder weisse Schrift auf weissem Hintergrund nehmen, damit es nicht lesbar ist?


Das ist keine Html-Datei, die Html-Formatierungen verstünde, sondern eine reine Textdatei. Html-Code würde sofort zu Fehlern führen.
 
Hallo Leute,

muss mich entschuldigen, habe heute irgendwie ein Brett vorm Kopf...

Ich will ja verschiedene seiten meines Blogs wie Impressum und versch. Personensuchmaschinen aussperren.

So, eine robot.txt datei, ja die kann jeder aufrufen z.b www.meinedomain.de/robot.txt, da kann dann jeder sehen, was ich so alles aussperre, das geht nun aber niemand was an.

Nehme ich dagegen eine .htaccess datei, ja die kann man nicht öffentlich aufrufen.

Habs irgendwie verwechselt heute.

Danke für eure raschen Tipps.

viele grüße
micky
 
QUOTE (micky @ Mi 7.07.2010, 14:20)So, eine robot.txt datei, ja die kann jeder aufrufen z.b www.meinedomain.de/robot.txt

Aber die muß

www.meinedomain.de/robots.txt

heißen. Eine /robot.txt wird nicht beachtet.
 
Die Datei würde nur angezeigt wenn fälschlicherweise ein "htaccess Apache Handler" erstellt worden wäre (hatte auch mal so einen Fall, wo jemand die Anleitung etwas falsch verstanden hatte)
smile.gif
 
Per default wird der Aufruf von Dateien, die mit ".ht" beginnen, mit einer Fehlermeldung 403 quittiert. Der entsprechende Abschnitt in der Konfiguration des Apache:

CODE #
# The following lines prevent .htaccess and .htpasswd files from being
# viewed by Web clients.
#
<Files ~ "^\.ht">
Order allow,deny
Deny from all
</Files>
 
Hallo,

ich danke euch allen für eure Tipps.

@Kruse, vielen dank auch, diesen Code werde ich in meiner htaccess mit einbauen,der code kommt sicher zuerst vor allen anderen Eintragungen rein?

Ich denke,etwas Privatsphäre muss auch bei kommerziellen Websiten/Blogs sein.Zusätzlich google und Personensuchmaschinen die Indexierung von Kontakt und Impressum nicht erlauben.

Zusätzlich das Impressum als Grafik einbinden, weisse Grafik in weissem Website Hintergrund, fällt dann auch nicht auf und der Bot kann es nicht lesen.

So sollte auch die Privatsphäre geschützt sein und nicht wild im Netz verstreut sein.

Erschreckend oft festzustellen, das bei kommerziellen Websites, viele Besucher sich lange auf der Impressum Seite und AGB Seiten aufhalten,während die anderen wichtigen Seiten,die ja die Information für den Besucher haben ignoriert werden und nach Sekunden verlassen werden.

Ich schau mir auf einer Webseite oder Shop zuerst auch das Angebot7information an, bevor ich in das Impressum schaue und nicht umgekehrt.

viele grüße
micky
 
QUOTE (micky @ Fr 9.07.2010, 12:07) @Kruse, vielen dank auch, diesen Code werde ich in meiner htaccess mit einbauen,der code kommt sicher zuerst vor allen anderen Eintragungen rein?

Nein, dieser Abschnitt steht normalerweise schon in der Konfigurationsdatei des Webservers - du musst dich da um nichts mehr kümmern. Du kannst das auch überprüfen, indem du versuchst, die .htaccess Datei in deinem Browser aufzurufen (http://example.com/.htaccess) - du wirst dann eine Fehlermeldung 403 (Forbidden) erhalten.
 
@Kruse,

ah so ist das, dann muss ich mal meinen Provider fragen.

Übrigens, ich beschäftige mich ja mit dem Gedanken, da ich ja 3-5 Webprojekte plane einen vserver zu mieten, die kosten ja nihct allzuviel, dumm ist nur das da keine domains inklusive sind.

Also sagen wir mal für 12 Euro im Monat einen vserver, darauf dann 3-5 Webprojekte jede Domain ein eigenes Verzeichnis, eigene php speicher, webspeicher, eigene mysql datenbank, ist billiger aals 5 Hostingpakete zu kaufen.

Nur kenne ich mich damit nicht aus. Die ssh und php.ini kann ich noch absichern, mit dem Mailserver kenn ich mich gar nicht aus.
Das Verzeichnis muss auch abgesichert werden, und der bot traffic muss begrenzt werden.

Auch die logfiles die Hackerangriffe protokollieren die müssen sicher auch regelmäßig gelöscht werden weil das Speicher frisst.

Nun finde ich im Netz keine Anleitungen dazu. Ohne Anleitung lasse ich das lieber sein.

viele grüße
micky
 
Ich würde mir erst einen VServer mieten, wenn ich diesen sicher adminstrieren kann - und vorher gegebenenfalls solange mit einem lokalen Rechner üben, bis dies der Fall ist.

Um die Logfiles kümmert sich normalerweise logrotate.
 
@Jörg Kruse,

ich persönlich denke, mehr wie ssh absichern, verzeichnis und php über php.ini, so wie lange Passwörter für ssh als auch extra user und login Passwort für maysql, und den Mailserver absichern,als auch ständige Updates der Software, mehr braucht man ja wohl nicht?

Nur wie sichere ich einen Postfix Mailserver ab?

Aber wie gesagt finde ich dazu keine gescheiten Anleitungen oder verstehe diese dann nicht, dann lasse ich es lieber bei Hosting bleiben.

viele grüße
micky
 
QUOTE (micky @ Fr 9.07.2010, 12:40) Also sagen wir mal für 12 Euro im Monat einen vserver, darauf dann 3-5 Webprojekte jede Domain ein eigenes Verzeichnis, eigene php speicher, webspeicher, eigene mysql datenbank, ist billiger aals 5 Hostingpakete zu kaufen.

Wenn man bei SharedHosting pro DOmains ein Webpaket braucht


wie funktioniert dann sowas
3 Domains http://www.netcup.de/bestellen/produkt.php?produkt=6
5 Domains http://www.pixelx.de/webhosting-tarif.php?aid=7
10 Domains http://celeros.de/webhosting_premium.html
10 Domains http://artfiles.de/webhosting/professional...onal_large.html

Ich habe bei allen Hostern noch (zusätzlich)Zusatzdomains in den Paketen
 
@micky;

"Absichern" gegen "fremde" Logins ist relativ simpel - dies ist aber nur ein kleines Puzzleteil vom Glück. Resourcenmanagement, bzw das "absichern" gegen z.B. (D)DOS (bzw. auch Lastanstieg) ist da schon massiv komplexer. Dazu kommen Themen wie Backup/Restore, Monitoring..

Dieses Wissen sammalt man allerdings wirklich fast nur mit Praxiserfahrung, am besten natürlich wenn man hier auf jemanden zurückgreiffen kann der sich auskennt.. Bedingung dafür ist allerdings dass man sich auch wirklich dafür interresiert und nicht nur den finanziellen "Vorteil" im Kopf hat - so wird das im meinen Augen nichts.


"Anleitungen" gibts tonnenweise. Das Problem hier ist lediglich dass es eigentlich keine "Musterlösung" gibt.
 
Zurück
Oben