Ich habe mich noch ein wenig mit dem FileManager beschäftigt.
Auch wenn die Option "Erweiterten Modus aktivieren?" im FileManager deaktiviert ist, kann man über die Eingabe in der Adressleiste des Browser ins Root-Verzeichnis und von dort in jedes andere Verzeichnis gelangen.
Offenbar funktioniert das nur, wenn man im Backend eingeloggt ist.
Das bedeutet allerdings, dass, falls jemand unerlaubt (auf welchem Wege auch immer) ins Backend gelangt, er nahezu unbegrenzten Zugriff auf den Webspace hat.
Habe mal zum Testen irgendwas ins lib-Verzeichnis hochgeladen und wieder gelöscht.
Ich will hier keine Panik machen.
Denn, wenn man die Sicherheitshinweise umgesetzt hat, besteht keine unmittelbare Gefahr.
Jedoch bereitet mir der Gedanke, dass man darüber jedes x-beliebige Script ins Root-Verzeichnis kopieren könnte, Bauchschmerzen.
Ich erinnere nur an den Fall, in dem ein kompletter Server vom Netz ging, weil irgendein bösartiges Script ins Root-Verzeichnis gelangt ist.
Deshalb sollte man evtl. den Direktzugriff im Root-Verzeichnis explizit nur auf die index.php, stylesheet.php und vielleicht auch noch auf die robots.txt und auf Bilder und JavaScripts beschränken.
Also ähnlich wie bei der .htaccess-Datei für das lib-Verzeichnis:
(ist nur ein Beispiel)
Code: Select all
# Anstatt den Zugriff nur auf die config.php zu unterbinden, verbieten wir den Zugriff auf ALLE Dateien
<Files *.*>
order allow,deny
deny from all
</Files>
# Und Anschließend erlauben wir den Zugriff nur auf bestimmte Dateien bzw. Dateitypen
# (ich musste die Dateiendungen einmal in Groß- und einmal in Kleinbuchstaben angeben,
# da es bei mir sonst nicht bei allen Dateien funktioniert hat)
<Files ~ ".*\.css|.*\.js|.*\.gif|.*\.jpg|.*\.jpeg|.*\.CSS|.*\.JS|.*\.GIF|.*\.JPG|.*\.JPEG|index\.php|stylesheet\.php|robots\.txt$">
order allow,deny
allow from all
</Files>
Sollte es damit Probleme geben oder jemand einen besseren Vorschlag haben, bitte Bescheid sagen.