Beiträge von carfal

    Lief auf dem Webserver ein Joomla? Ich frage daher, da Joomla zur Zeit massiv viel gehackt wird.


    Nein. Unter dem Admin-vHost läuft Froxlor, trac und phpmyadmin. Alles zusätzlich mit http-user/pass gesichert. Hier ist alles OK.


    Auf den "Kunden"-vHosts war nur phpGedView installiert - sonst keine php-Scripte. Und im phpGedView-Verzeichnis gab es auch keine Änderungen. Die Rechte des Verzeichnis sind so gesetzt, dass ich dort per ftp keinen Zugriff habe.


    EDIT: OK, bei phpGedView ist ein punbb dabei. Das könnte möglicherweise ein Problem gewesen sein, da das alles nicht über apt-get aktuell gehalten wird.

    Gestern ist mir aufgefallen, dass mein vServer angegriffen wurde.
    Es wurden unter /var/kunden/webs in jedem Verzeichnis, dass html-Dateien enthielt, eine Datei namens default.php erstellt. Nach dem 21. decoding kam dann Schadcode zum Vorschein.
    Allen html-Dateien wurde ein iframe mit einer Weiterleitung auf ein (wahrscheinlich, Ziel gibt inzwischen 404) Schadscript hinzugefügt. Weiterhin wurden .htaccess-Dateien mit einer rewrite-Rule zum selben Schadscript erstellt.
    Inzwischen habe ich die php-dateien umbenannt, ebenso die .htaccess Dateien. Für die desinfektion der htm(l)-Dateien bastle ich ein Script.
    EDIT: Hier das Script, wenn man in seinen html-Dokumenten keine iframes verwendet:

    Code
    for i in $(find |grep htm);do sed -i -e 's/<iframe.*<\/iframe>//' $i;done


    Bei vhosts, die nicht unter /var/kunden/webs liegen und in allen anderen Verzeichnissen, wurden - so weit ich das bisher beurteilen kann - keine Dateien erstellt und/oder geändert.
    Mit ProFTPd habe ich nur zugriff auf dieses Verzeichnis. Auch wurden nach dem letzten Update von ProFTPd am 13. Jan keine weiteren Dateien verändert.



    Einzig und allein PhpGedView 4.2.3 ist im Standardpfad /phpgedview ohne http-user/pass installiert. Für das gibt es zwei remote vulnerabilities, die allerdings zu keinem Zugriff führen. Für ProFTPd gab es auch eine Lücke, die allerdings auch nur lokal auszunutzen war.


    Möglicherweise war es eine Kombination aus beiden Lücken.


    Als nächstes werde ich den Server komplett sichern und dann nachsehen, ob etwas außerhalb von /var/kunden/webs geändert wurde. Falls ja, wird ein Backup eingespielt oder der Server neu installiert. Falls nein, gebe ich dem Server noch eine Chance und werde die Sache täglich beobachten. Dann phpgedview auf die aktuelle Version bringen und dann das Verzeichnis umbennen und zusätzlich per http-user/pass sichern.


    Hat jemand ähnliches bei seinem (v)Server festgestellt?

    Damit hier auch die Antwort steht:


    Nach folgendem Befehl funktioniert es wieder ohne Probleme:


    Code
    gpg --ignore-time-conflict --no-options --no-default-keyring --secret-keyring /etc/apt/secring.gpg --trustdb-name /etc/apt/trustdb.gpg --keyring /etc/apt/trusted.gpg --primary-keyring /etc/apt/trusted.gpg --keyserver gpg-keyserver.de --recv-keys 4F9E9BBC

    Hat jemand von euch Open-Xchange Server 6 laufen?


    Mich würde die Hardwareanforderung für < 10 User interessieren und auch der Konfigurations- und Wartungsaufwand.

    Zitat von Artimis;18563

    Um die Frage konkreter, aber unverbindlich zu beantworten:


    In der Regel werden die Server am sehr frühen Morgen gewartet.
    Selten, insbesondere z.B. nach dem letzten Kernelupdate, kam es vor, dass spontan ein wichter Restart gemacht wurde.


    Vielen Dank für diese Information.
    Ich habe inzwischen ein Script erstellt, dass die Downtime (des Crondaemons) in eine Datei speichert.



    Ja, ich weiß, dass man das auch aus anderen Logs auslesen kann, aber ich finde es so übersichtlicher.
    Falls sich Fehler eingeschlichen haben sollte, bitte bei mir melden.

    Gibt es für die vServer ein offizielles Wartungsfenster oder eine firmeninterne Policy, dass Updates immer zu einer bestimmten Zeit eingespielt werden? Werden Sicherheitsupdates sofort eingespielt?


    Bisher hatte ich zwar noch keine Probleme mit der Erreichbarkeit meines vServers. Ich überlege jedoch, ob ich einige Dinge wie Anrufbeantworter oder Gegensprechanlage, die Tagsüber immer verfügbar sein sollten, auf den Server auslagere.

    Vor einigen Jahren war ich Rechner-HiWi an einem Institut an der Uni Ka. Damals hatten wir einen Server für NIS-Auth und NFS-Homes, diese waren mit ~100MB jedoch mickrig klein. Darum wurde einfach bei jeder neu angeschafften Workstation ordentlich Plattenplatz mitbestellt. Zudem war dieser Platz lokal und die Ergebnisse der numerischen Berechnungen waren Teils mehrere GB groß, so dass die Leute mit lokalem Platz natürlich auch schneller Arbeiten konnten. Da viele auch fremde Ergebnisse einsehen mussten wurden die lokalen Arbeitsverzeichnisse per NFS auf dem Server gemountet und von dort hat sie jeder wieder bei sich lokal gemountet. Bei lediglich 100 mBit war das teilweise sehr langsam. *g* War aber nicht mein Konzept aber schon ein kleiner Patzer.


    Später durfte ich dann ein Hardware-RAID integrieren, auf dem nun die Arbeitsverzeichnisse gesichert wurden. Vorher wurde jeder einzelne Rechner per ADSM ans Rechenzentrum gesichert, jedoch lief die Software nicht bei allen Rechnern zuverlässig und musste auch öfters auf eine neue Version gebracht werden. Darum sollten erst alle Rechner auf das RAID gesichert werden und dann wurde von diesem Rechner aus weiter ans RZ gesichert. Das lief alles per Shellscript und bis alles funktionierte hat es mich sicher 50 Stunden gekostet (Viel probieren und dann an die verschiedenen Rechner anpassen). Als ich alles fertig hatte, habe ich noch das Verzeichnis gesäubert und das fertige Skript gelöscht.
    Ich war echt fix und fertig, mir war sogar etwas schlecht. Bis mir einfiel, dass das gestrige Skript ja einfach per ADSM wiederhergestellt werden konnte. :) Ein Glück!

    Zitat von masterchris_99;10231

    Hallo,


    ich wollte jetzt die Firewall so schalten das ich nur einen eigenen SSH Port, HTTP und FTP freigebe. Alles andere soll gesperrt werden.


    Das ist meiner Meinung nach grober Unfug. Du bemerkst ja gerade selber, dass du Probleme bekommst, die du nicht genau erklären kannst.


    Sinnvoller ist es, nur die Ports zu sperren, die auch offen sind und deren Dienste du nicht von außen erreichbar haben willst. Aus dem Kopf sind das beim Debian Lenny Image pop3, smtp, dns und mysql.


    Der Server ist nicht weniger sicher, es sind genau so wenig offene Ports erreichbar.


    Du kannst mit Nmap von daheim aus scannen, bis nur noch dein FTP-, HTTP- und SSH-Port offen ist. Das mag zuerst aufwändig klingen, es sind aber nicht so viele Einträge und dann läuft auch dein FTP wie er soll.

    Ich schaue mal, ob ich morgen dazu komme, eine umfangreichere Zusammenfassung zu schreiben.


    Kurz:
    Es wird Apache2 2.2.12 sowie mod_ssl mit der Option TLS_SNI benötigt. Lenny ist leider erst bei Apache 2 2.2.9 und damit ohne TLS_SNI. In der libssl.so des bei Lenny eingesetzten OpenSSL ist SSL_get_servername schon aktiviert, so dass nur der Apache2 neu kompiliert werden muss.

    Zitat von killerbees19;9391

    Ich dachte da eher daran, wenn man mehrere verschiedene Domains (eben nicht nur andere Subdomains) mit SSL hat, dann brauchst mehr IP's ;)



    MfG Christian


    Dass SSL mit mehreren Domains auf einer IP nicht funktioniert ist inzwischen nicht mehr aktuell.
    http://www.heise.de/kiosk/archiv/ct/2009/23/174
    Das ist zwar keine 100%-Lösung (Die schannel.dll von XP unterstützt es nicht, da wird z.B. FireFox benötigt) und noch nicht mit Debian Lenny out-of-the-box möglich, aber Squeeze unterstützt es schon jetzt.

    Hallo,
    ich würde gerne Proftpd auf zwei Ports lauschen lassen, auf dem einen Port mit STARTTSL auf dem anderen nur mit SSL. Gut, auf dem ersten Port habe ich das so geändert, dass STARTTSL funktioniert. Aber jetzt weiß ich nicht, wie ich den zweiten, SSL-only Port konfigurieren soll. Proftpd sollte das könen, aber ich habe dazu weder etwas in der Manpage noch durch googeln gefunden...