Beiträge von m_ueberall

    Meine SSH Absicherung bisher: […]

    Danke für Tipps, Erfahrungen, Anmerkungen
    1. Port-Knocking mit ausreichend langer Klopfsequenz hält die Logs sauber und arbeitet zuverlässig (eine globale Suche nach "knock"/"knockd" hier im Forum – und etwas Ausdauer – sollte ein paar Diskussionen/Erfahrungswerte auflisten)
    2. Verschiedene sshd-Instanzen/-Regeln für VPN und Zugriffe von außen sollten das o. g. Problem mit automatisierten SSH-Aktionen lösen

    Hille: Mein vorheriges Script demonstriert doch, wie man einen beliebigen String löscht – somit muss das nur eine Schleife gepackt werden, welche eine Datei Zeile für Zeile bearbeitet (und das Ersetzen von / durch // gewährleistet die Ersetzung mehrerer Vorkommen in einer Zeile):

    Code: strip.sh
    #! /bin/bash
    while IFS="" read -r LINE || [[ -n "${LINE}" ]]; do
        LINE="${LINE//$1,/}"
        LINE="${LINE//,$1/}"
        LINE="${LINE//$1/}"
        printf '%s\n' "${LINE}"
    done < $2

    Syntax ist strip.sh <Domäne> <Datei>.

    arminus : Wie hier an anderer Stelle im Forum mehrfach diskutiert – Netcup arbeitet derzeit daran, Probleme mit DNSSEC zu beheben. Um diese zum derzeitigen Zeitpunkt zu umgehen, empfiehlt es sich, die Domänen ggf. zu Netcup als Registrar umzuziehen (oder einen anderen preiswerten Registrar – zu Ostern gibt es mit Sicherheit ein günstige Gelegenheit, um Domänen zu transferieren) … aber deSEC e.V. (kein direkter Mitbewerber) für die Verwaltung einzusetzen. DNSSEC ist damit kein Problem, eine API (und Schnittstellen zu acme.sh bzw. anderen einschlägigen Hilfsprogrammen) und eine sehr komfortable Web-Schnittstelle gibt es auch. (Einstellungen finden sich in diesem Diskussionsfaden.)

    Normalerweise verwendet man sed oder perl, wenn man (komplexere) reguläre Ausdrücke in Verbindung mit bash verwenden muss, allerdings kann man sich bei einfachen Dingen auch anders behelfen (das sieht weniger elegant aus, ist aber schneller, da kein externes Hilfsprogramm erforderlich ist):

    Code
    #! /bin/bash
    set -x
    VAR1="domain1,domain2,domain3"
    VAR1="${VAR1/$1,/}"
    VAR1="${VAR1/,$1/}"
    VAR1="${VAR1/$1/}"
    set +x
    echo "VAR1=[${VAR1}]"

    Hier nochmal mein Tip, von mod_alias auf mod_rewrite zu wechseln, den Loglevel auf traceN zu setzen und die Logs zu lesen.


    Ich mag jetzt wirklich keinen Container dazu mehr starten und die Standarddefinitionen in /etc/apache2/apache2.conf und /etc/apache2/sites-enabled/000-default (damit wird, wenn ich mich recht erinnere, die Standardseite ausgeliefert) nachlesen, aber zwei Dinge sind mir noch unklar:

    1. Die HTML-Standardseite sagt ja, "[…] By default, Debian does not allow access through the web browser to
      any file apart of those located in /var/www, public_html directories (when enabled) and /usr/share (for web applications). If your site is using a web document root located elsewhere (such as in /srv) you may need to whitelist your document root directory in /etc/apache2/apache2.conf. […]" – wird dadurch nicht /var/cache/munin/www gesperrt?
    2. Wenn, wie oben beschrieben, http­:­//peter­.­firmasrv­.­de funktioniert, dann wird das ja über einen Web-Server auf dem Standard-Port 80 ausgeliefert; wie kommt es denn, dass die "peter-Daten" im obigen Cache-Verzeichnis vorliegen? Ist das ein anderer Name für denselben Server, auf welchem unter verschiedenen IP-Adressen (intern/extern) zwei verschiedene Webserver aktiv sind? Oder wird "peter­.­firmasrv­.­de" durch eine andere VirtualHost-Definition ausgeliefert? Wenn hier zwei Webserver aktiv sind, soll Apache2 aus Performanzgründen direkt auf das Cache-Verzeichnis zugreifen? "Normalerweise" würde man dann (auch aus "Einheitsgründen") einen Reverse-(HTML-)Proxy definieren.

    Das funktioniert auch nicht, ich komme weiterhin auf die "It works!" Seite.

    Hast du mir vllt. eine funktionierende Config? Wäre dafür sehr dankbar.

    Von dem ursprünglich gezeigten Auszug kann man natürlich nicht auf die vollständige Konfiguration schließen (bspw. TLS-spezifische Direktiven und ggf. "konkurrierende" VirtualHost-Definitionen); als Beispiel hätte ich aber auch nur die o.g. Zeilen nennen können.

    Ist denn mod_alias aktiv (apache2ctl -M | grep alias muss dazu "alias_module (shared)" ausgeben)? Wenn es nicht funktioniert, sollten sich Ausgaben in einem Logfile finden. Wenn nicht, empfiehlt sich (zumindest temporär) ein Wechsel von mod_alias zu mod_rewrite, da hier entsprechende Auswertungen bis ins kleinste Detail nachverfolgt werden können (Beispiel hier, ausschlaggebend ist die Antwort auf die Frage darüber).

    heavenly : Bezüglich der Geschwindigkeit gibt es keinerlei Einschränkung, wenn man dnscrypt-proxy verwendet (sofern man nicht direkt DNS-Anfragen an die "üblichen Verdächtigen" senden mag). Mithilfe der Konfigurationsoptionen ipv4_servers und ipv6_servers (u. a.) lässt sich die gewünschte Steuerung problemlos realisieren.

    Bin auch schon am überlegen, ob ich meine Mails nicht lieber vollständig an netcup auslagere.
    Wäre das eine gute oder eine schlechte Idee? *hust*

    Wenn hier nicht der (sich hoffentlich einstellende) Lerneffekt entsprechend eingerechnet wird, dürften die jährlichen Kosten und der dagegenzusetzende Zeitaufwand eine eher ungünstige Kosten-/Nutzenrechnung ergeben, wenn man nicht Schüler/Student und/oder gelangweilt ist (unter der Annahme, dass man eine taugliche Mailbox mit Backup, Monitoring und Wartung aufsetzen möchte) …

    Kannst du (oder andere) erfahrene "Serverumzieher" in etwa sagen, wie lange der Datentransfer innerhalb des NC-Netzes ungefähr dauern wird? Und mit welcher Downtime ich in etwa rechnen muss? (Vorausgesetzt es klappt relativ problemlos?) Quelle ist ein RS 1000 SAS G8 (also mit herkömlicher HDD, keine SSD) mit einem Datenvolumen von knapp unter 200GB?

    Ein RS 1000 SAS G8 hat eine 1GBit/s-Schnittstelle, allerdings kann diese Bandbreite bei Verwendung einer HDD nicht im Entferntesten ausgelastet werden. Wie schnell die Übertragung funktioniert, hängt nicht zuletzt davon ab, ob/wie die Daten komprimiert werden (können) und welche Verschlüsselung zum Einsatz kommt (in der Regel würde man rsync über ssh tunneln).

    Ich weiß nicht, welches Betriebssystem Du verwendest, aber z.B. bei Debian/Ubuntu gibt es über ein inoffizielles Repo auch die alten PHP-Versionen: https://deb.sury.org/

    Das geht notfalls zurück bis PHP 5.6 und stammt vom gleichen Maintainer, der schon seit Ewigkeiten die offiziellen PHP-Pakete von Debian pflegt.

    Auch wenn dort derzeit noch Pakete mit PHP 5.6 zu finden sind, würde ich in diesem Fall raten, schnellstens eine lokale Kopie von diesen zu archivieren, da diese Version laut Beschreibung des Repositories selbst dort eigentlich nichts mehr "verloren" hat:

    Co-installable PHP versions: PHP 5.6, PHP 7.x, PHP 8.x and most requested extensions are included. Only Supported Versions of PHP (http://php.net/supported-versions.php) for Supported Ubuntu Releases (https://wiki.ubuntu.com/Releases) are provided. Don't ask for end-of-life PHP versions or Ubuntu release, they won't be provided.

    Hierzu: Supported Versions, Unsupported Branches (http://www.php.net)

    In der Vergangenheit wurden ältere Versionen bereits mit sehr kurzer Vorwarnung gelöscht; auch der obige Zusatz "most requested extensions" kann ggf. zu Problemen führen, so dass sich ein initialer Abgleich aller erforderlichen Bibliotheken/Module empfiehlt.

    RS 2000 G9.5: https://browser.geekbench.com/v5/cpu/19584874

    RS 2000 G11: https://browser.geekbench.com/v6/cpu/5216017

    Wobei ACHTUNG: Der RS 2000 G9.5 ist noch Geekbench v5. Ist also wohl eher nicht vergleichbar!

    Das ACHTUNG (und der Hinweis auf den Zeitpunkt der Testumstellung) ist gerechtfertigt: Der RS 3000 G9.5 SE hier nutzt schon Geekbench v6.0.0, da sind die Werte höher; ein Test mit einem RS 6000 G9 (gleiche CPU, aber anderer L3-Cache?) mit Geekbench v6.2.2 gibt nochmals andere Werte.

    Wenn "demnächst" ein wenig dehnbar ist, würde ich zunächst die Verfügbarkeit der Netcup-G11-Angebote abwarten.

    Grundsätzlich gilt: Wenn es sich um einen Build-Server handelt, welcher hinreichend oft maximal ausgelastet(!) ist, schlägt sich ein RS besser als ein VPS (weniger Task-Wechsel zwischen verschiedenen Kunden aufgrund dedizierter virtueller CPU-Kerne).