Beiträge von Rayne

    Ist ja zum Glück nur lokal.


    Spätestens dann, wenn eine Eingabe von außen am Server ankommt und ein Prozess mit einer (lokalen) UID die Eingabe bearbeitet. Fehlt nur noch ein passendes Feature oder ein Bug in der Software, die sich um die Antwort kümmert.

    Also ich kann schonmal berichten dass auf dem VPS 10, VPS 20 und VPS 50 eine Ubuntu 16.04 nicht installierbar ist.
    Die Fehlermeldung ist "Failed to load installer component for unknown reasons. Aborting."


    Kann ich nicht bestätigen. Auf meinem VPS 50 läuft sowohl Alpine als auch Ubuntu 16.04. Alpine per FTP-Upload und für Ubuntu 16.04 habe ich die CD von Netcup genommen. Installation von Ubuntu 16.04 hat aber geschlagene 30 Minuten gedauert.

    Soll das nachfolgende Zitat den Nutzer darüber informieren, dass manche Betriebssysteme wesentlich mehr Arbeitsspeicher benötigen oder hat das weitere Gründe?


    Zitat

    Nicht alle bereitstehenden Images sind auf den Produkten VPS 10 bis VPS 100 lauffähig.

    Wenn man einen definierten Pool von Subdomains hat, kann man auch mit Lets Encrypt ein allgemein gültiges (SAN-) Zertifikat erzeugen. Hab das mal mit einem Userdir Setup unter NGINX gemacht:


    Fake-Wildcard mit Lets Encrypt - Any Source


    Habt ihr noch andere Ideen? :)


    Du schreibst im Blog:


    Zitat

    Bei alternativen Clients müsste man immer die ganzen Checks (Zertifikat abgelaufen, neue Domain, ...) selbst durchführen.


    Das stimmt nicht. Ich verwenden z.B. lukas2511/letsencrypt.sh und fasse u.A. auch mehrere Domains in einem Zertifikate zusammen. Mit Hilfe von einem Cronjob lassen sich die Zertifikate automatisch aktualisieren. Je nach Konfiguration bietet sich auch die Verwendung der letsencrypt.sh-Hooks an um Zertifikate zu deployen (Anmerkung: nutze ich z.Z. nicht).


    Weiterhin werden keine root-Rechte benötigt. Das hat mich bei dem offiziellen Client - abgesehen von seiner Größe - sehr gestört.


    Nachtrag: Mit Deinem Shell-Skript könntest Du die Konfigurationsdatei für letsencrypt.sh bauen lassen. letsencrypt.sh erkennt die Änderungen an der Konfiguration und auch ob Zertifikate aktualisiert werden müssen (mit einstellbarem Zeitpuffer).

    Erstmal muss ich ThomasChr zustimmen.


    Die Software wird laut Repository seit 2012 nicht mehr von einem Unternehmen gewartet, aber es scheint mindestens einen Nutzer zu geben, der noch Wartungen vornimmt (eben der Besitzer des Repositories). Aber auch davon abgesehen, entnehme ich der Dokumentation auf den ersten Blick, dass man a) natürlich nicht Confixx benötigt und b) Du dafür auch eher ein Webhosting- oder Expert-Webhosting-Tarif von Netcup verwenden solltest. Die Gründe wurden schon genannt.

    Die JSON-Datei ist natürlich kein Zertifikat. Mach die Änderungen wieder rückgängig und lass das Skript den privaten Schlüssel automatisch erzeugen. Die Zertifikate werden in certs gespeichert und mit aktuellen Symlinks versehen, falls kein Problem bei der Überprüfung durch Let's-Encrypt aufgetreten ist.

    Vielleicht solltest Du auch nicht die automatisierten Tests starten (die eine CI-Umgebung ewarten) sondern stattdessen letsencrypt.sh verwenden. ;)


    Für Details, siehe den Abschnitt Usage


    Da man selbst nicht zwingend Zertifikate erzeugen muss, genügt es die domains.txt anzulegen, bei Bedarf eine Konfiguration und einen Befehl abzusetzen.


    Bei mir sieht das in etwa so aus (…/bin/update.sh:(


    Bash
    #!/bin/bash
    cd "$(dirname "$0")"
    ../vendor/letsencrypt.sh/letsencrypt.sh --config ../config/config.sh --cron


    In der Konfiguration habe ich nur WELLKNOWN definiert, was man natürlich nicht machen muss.


    In den VirtualHosts bzw. der HTTP-Konfiguration muss man dann noch die Challenge-Dateien zugänglich machen. Für Apache habe ich weiter oben schon eine Möglichkeit verlinkt. Für nginx kann man die offizielle Dokumentation konsultieren. Ich hoffe, dass damit alle Fragen geklärt wären. :)

    Ich persönlich verwende lukas2511/letsencrypt.sh mit einer angepassten Konfiguration, damit die Challenges in ein bestimmtes Verzeichnis geschrieben werden, welches über Alias-Einträge in die verschiedenen VirtualHosts (Beispiel) für .well-known-Anfragen gehängt wird.


    Ich nutze lukas2511/letsencrypt.sh, da es ein kleines Projekt ist und ich es daher vor der Verwendung überprüfen konnte und auch in Zukunft Änderungen nachvollziehen kann.


    Das Skript wird bei mir von einem unprivilegiertem deaktivierten Systemnutzer ausgeführt. Die Dienste, die die erzeugten Zertifikate verwenden, greifen direkt auf diese im geschützten Arbeitsverzeichnis des Nutzers zu. Die automatische Aktualisierung erfolgt in Zukunft über einen Cronjob.

    Docker ist keine Virtualisierung und auch nicht als Sicherheitsfeature anzusehen. Es ermöglicht aber eine Paketierung und Versionierung von Programmen bzw. Komponenten. Nur weil Anwender ein vollständiges init-System und/oder SSH in ein Paket werfen, macht das aus Docker noch lange keine vollwertige VM. Daraus folgen eher schlecht zu wartende Container, die einen schwer zu verwaltenden internen Zustand bei der Ausführung erhalten und somit nicht mehr zu jedem Zeitpunkt austauschbar sind.


    Zitat von https://docs.docker.com/engine/articles/security/

    Docker containers are, by default, quite secure; especially if you take care of running your processes inside the containers as non-privileged users (i.e., non-root).


    Davon abgesehen bzw. mit diesem Wissen im Hinterkopf, wird es zu einer nützlichen Software.

    Wie ist da der Vorgang? So wie es für mich aussieht, kann ich im VCP nur ein Image uploaden ...

    • Erstimage einlegen
    • Partitonieren
    • Erstsystem installieren
    • Ausschalten
    • Zweitimage einlegen
    • Zweitsystem installieren


    Um von einem in das andere System zu wechseln, musst Du nur den GRUB-Eintrag für den nächsten Systemstart deklarieren (siehe grub-reboot) oder Du nutzt die VNC-Konsole der Serververwaltung und wählst das System manuell aus. Allerdings verstehe ich auch nicht, wieso man das machen sollte.


    Vermutlich willst Du zwei KVM-Systeme in Deinem KVM-System laufen lassen. Das ist nicht möglich, da Nested Virtualization nicht aktiviert wurde. Du könntest aber z.B. OpenVZ nutzen. Oder einfach auf chroot oder docker (Docker auf Netcup-KVM) setzen.


    Nachtrag: Wie von Dragon angesprochen, meine ich mit Images die Installation-Images, also CD o.Ä.

    Tiny Tiny RSS ist super. Der kostenfreie Android-Client hat noch einige Probleme (z.B. seltene Crashes oder mehrfach "ineinander" geöffnete Artikel bei Doppeltipp), ist aber trotzdem in Ordnung. Schön ist aber, dass er mit SNI umgehen kann.

    Interessant, dass mehrfach verwendete Inodes gezählt werden.


    Sollte das so gewollt sein, kann man den Storagespace für Backups ja eigentlich nicht nutzen, da die Kosten ja dann doch ziemlich hoch werden, selbst wenn sich die Daten zwischen den Backups nicht ändern..


    Schau Dir mal rdiff-backup an. Das speichert die Deltas zwischen den Backups und ermöglicht auch die Löschung veralteter Diffs (z.B. nach einem Monat).

    Entferne alle Wildcards in der DNS-Konfiguration/Netcup-CCP und lege nur die Domains an, die auch verwendet werden sollen. Als Notlösung (mit Wildcards) könntest Du wie angesprochen eine Standardseite mit Code 400 oder 404 ausliefern lassen.

    Ein Bekannter benötigt in absehbarer Zeit MySQL mit InnoDB, damit zukünftige Versionen vom Joomla-CMS verwendet werden können. Unglücklicherweise bietet sein derzeitiger Webhosting-Anbieter das Speichersystem nur gegen einen stattlichen Aufpreis an.


    Auf der Netcup-Website habe ich zu InnoDB keine Informationen gefunden und im Forum nur veraltete Beiträge. Wie sieht denn der aktuelle Stand aus? Ab welchem Paket kann InnoDB für Transaktionen verwendet werden?

    Was Domains angeht, hat netcup früher keine Domainbestellungen akzeptiert ohne weitere Produkte, wie es aktuell aussieht, kann auch nur netcup beantworten. Dies könnte sich dadurch geändert haben, dass netcup nun DENIC-Mitglied ist und eigene Nameserver erlaubt.


    Eine Bestellung ohne weitere Produkte ist spätestens sein Dezember 2013 möglich.