Beiträge von Paul

    Hallo geekmonkey,


    erstmal danke für's Teilen :) Es ist immer gut, wenn man Code öffentlich zur Verfügung stellt und vor allem andere drüber schauen lässt.


    Aber da du schon fragst, einen (konstruktiven) Verbesserungsvorschlag hätte ich dann doch: Heutzutage schreibt man eigentlich keine Shell Skripte mehr für die Installation und Konfiguration von Serverdiensten. Dafür gibt es Konfigurations-Management-Tools wie Ansible (https://www.ansible.com/), was mittlerweile das Standard-Tool für Automatisierung geworden ist. Damit ist es unglaublich viel einfacher solche Szenarien abzubilden und den Code später mit anderen zu teilen.


    Auf https://galaxy.ansible.com/ gibt es z.B. schon so viele Rollen/Playbooks, die gerade solche Dienste wie Webserver/DB/LAMP etc. auf sämtlichen Betriebssysten abbilden. Ok, auf Galaxy muss man immer etwas aufpassen, weil das meiste einfach Schrott ist ;-). Aber oft ist es ein guter Anhaltspunkt um seine eigenen Ansible Rollen zu schreiben, was man auf jeden Fall mal gemacht haben muss, wenn man Ansible einsetzen möchte.


    Daher, wenn du eh gerade Zeit hast, schau es dir unbedingt mal an. Die Lernkurve dabei ist enorm. Vielleicht dauert es am Anfang einen kleinen Moment, bis man mal drinnen is im Thema, aber dann willst du garantiert nichts mehr anderes nutzen! :)

    Wir werden vermutlich Cloud-Init zukünftig anbieten. Hier wäre, wenn der Kunde dieses wünscht, auch bei einem Vorhandenen Image nachträglich ein Tausch von SSH-Keys möglich.



    Mit freundlichen Grüßen


    Felix Preuß

    Das wäre wirklich klasse!


    Ist aber vermutlich einiges an Aufwand, wenn man sämtliche Images neu erstellen und "Cloud-Init-Ready" anbieten möchte. Aber an sich sehr begrüßenswert, da dadurch auch Systeme wie RancherOS gut nutzbar wären. Bin auf jeden Fall sehr gespannt, was da kommen wird ;-).

    Da bin ich doch echt froh, dass ich mir privat ein ordentliches Business Notebook von Dell gekauft habe (Latitude E5470). Das hat direkt wenige Tage nach Bekanntwerden ein Bios Update bekommen. Es gibt sogar eine extra Anleitung um Bios Updates unter Linux einzuspielen, wenn man wie ich gar kein Windows hat. Das finde ich sehr vorbildlich. Mein Desktop PC wird das vermutlich nie sehen (Asus Mainboard, letztes Update irgendwann 2015).

    Nextcloud kann auch S3 als Primary Storage nutzen. Daher würde es sich hier durchaus anbieten, auf dem Storage Server einen simplen S3 Dienst laufen zu lassen (ich empfehle hier einfach mal Minio Server https://www.minio.io/) und diesen dann verschlüsselt über HTTPS in Nextcloud einzubinden. Das würde die Problematik mit der unverschlüsselten Verbindung sehr elegant lösen.


    Ich plane aktuell nämlich ein ähnliches Setup, konnte es aber noch nicht umsetzen, da es aktuell keine Möglichkeit einer Migration von einem herkömmlichen Filesystem Backend auf ein S3 Backend seitens Nextcloud gibt. Getestet habe ich es aber schon erfolgreich in einer Testumgebung (allerdings ohne Performance Tests).


    Ich verweise hier dann nochmal auf die offizielle Nextcloud Doku. Die ist hier eigentlich recht gut und sollte alle weiteren Fragen kären. https://docs.nextcloud.com/ser…iles/primary_storage.html

    Das mit den 72 Stunden war wohl auch ein klein wenig zu optimistisch ;) Zumindest bei mir sind Stand heute nach über 72 Stunden nur 3/9 Systeme rebootet worden. Wollte jetzt am Wochenende eigentlich mal alle Systeme durchpatchen, aber das wird wohl leider doch nichts, da ich erst auf den Reboot der Wirtsysteme warten will.


    Dafür hat bei mir das ACPI Signal einwandfrei funktioniert und meine Systeme sind sauber heruntergefahren :thumbup:

    Code
    Jan  6 14:27:29 aragorn systemd-logind: Power key pressed.
    Jan  6 14:27:29 aragorn systemd-logind: Powering Off...
    Jan  6 14:27:29 aragorn systemd-logind: System is powering down.

    My 2 ¢: Es geht (mir) nicht um den automatischen Neustart, den überleben (meine) Systeme schon. Es geht mir rein darum, dass man bei manuellen "Wartungsarbeiten" am System nicht von einem extern ausgelösten Neustart überrascht werden möchte. Ein Absturz ist eine Sache, aber ein geplanter Neustart sollte dem Sysadmin schon bekannt sein, um während dieser Zeit nichts einzuplanen.


    Oh, jetzt hätte ich meinen 6000. Beitrag fast übersehen… 8|

    Das sollte jetzt auch keinesfalls auf deinen Beitrag davor bezogen sein oder dich damit meinen. Es ist nur so ein allgemeinen Phänomen, das ich bei solchen Situationen immer beobachte ;-).

    Bei den derzeitigen Diskussion habe ich immer so ein wenig den Eindruck, dass sich viele nicht so richtig bewusst sind, was es heißt, seine Applikationen und Server in der Cloud zu betreiben. Meiner Meinung sollte bzw. müssen solche Systeme zu jedem Zeitpunkt einen automatischen Neustart verkraften können. Dies gilt (und meiner Meinung nach besonders) für produktive Umgebungen, da ein Ausfall ja grundsätzlich immer mal passieren kann. Ist Verfügbarkeit wichtig, so sollte man eben auch horizontal skalieren können.


    Aber vielleicht ist das ja mal ein guter Zeitpunkt seine Umgebungen so zu überarbeiten, dass es das nächste Mal weniger Sorgen gibt :-).

    Solange du die Partition nicht mit Daten gefüllt hast, solltest du eigentlich auch so noch einen Snapshot erstellen können. Dass du während der Installation die vollen 80GB partitioniert hast, sollte hier kein Problem sein. Im SCP siehst du ja wieviel Speicherplatz belegt ist. Wenn das <40GB ist, kannst einen Snapshot erstellen.

    Laut Ankündigung (http://www.netcup-sonderangebote.de/) fehlt allerdings noch der vServer für 3,99 €. Daher tippe ich einfach mal auf den ;)


    2015 gab es einen für 2,99 €. 2016 Dann für 3,49 €. Und dieses Jahr dann (vielleicht) für 3,99 €. Würde ja ganz gut passen. Ich bin auf jeden Fall gespannt. Brauchen könnte ich so einen noch ganz gut :saint:.

    Zitat

    Es tut uns leid! Zur Zeit ist das Produkt BF17 RS 1000 Plus leider ausverkauft. Sobald das Produkt wieder verfügbar ist, kann es erneut bestellt werden. Bitte schauen Sie doch zu einem späteren Zeitpunkt wieder vorbei.

    Schade. Das ging aber ziemlich schnell. Naja, später nochmal versuchen. Vielleicht gibt es ja nochmal Nachschub :)

    Die Geschwindigkeit ist mir auch ziemlich wichtig.

    In diesem Fall würde ich aber doch zu einem vServer raten. Speziell zu einem "Root" RS Server mit SSD. Ich betreibe selbst einige vServer hier bei Netcup. Von VPS über RS (mit SSD, teilweise ohne) sind einige dabei, aber wirklich performat ist nur der RS Server mit SSD. Bei allen anderen gibt es doch einige Einschränkungen was die IOPS betrifft. Dafür sind sie halt sehr günstig.


    Beim Webhosting sieht es ja ähnlich auch. Auch da macht man Kompromisse, was die Performance angeht. Dafür hat man halt weniger Aufwand. Daher wäre für deinen Fall wohl ein Root Server die beste Wahl. Wenn du willst, kannst du ja auch einen managed Server mieten. Dann hast du den Vorteil der Performance und musst dich nicht selbst um die Wartung des Servers kümmern (vom CMS mal abgesehen, das hast du aber auch beim Webhosting).

    Hallo Forum,


    ich möchte hier mal eine interessante Entdeckung teilen. Vielleicht kann sie für den ein oder anderen auch nützlich sein.


    Problem:

    Ich hatte die letzten Tage das Problem, dass das Netzwerk einer meiner VPS nach einem Upgrade auf den Linux Kernel 4.12 ziemlich langsam geworden war (max 1-2 Mbit/s) und ich mir nicht erklären konnte woher das auf einmal kam. Als OS nutze ich hier Arch Linux. Dies betraf aber nur Verbindungen ins Internet (z.B. OS-Updates etc. oder auch Downloads von https://lg.netcup.net). Die Verbindung zu Netcup internen Servern war hingegen einwandfrei (getestet mit iperf3, bin mir aber mittlerweile nicht mehr so sicher, ob das ein guter Vergleich ist).


    Lösung:

    Nach einigem Debugging konnte ich folgende Lösungen ermitteln:

    * Kernel Downgrade (z.B. auf die 4.9 LTS Version) und/oder

    * Wechsel auf den e1000 Netzwerk-Treiber

    Danach war die Netzwerk-Performance wieder super und ich konnte Dateien mit max. Geschwindigkeit herunterladen.


    Vielleicht ist diese Erkenntnis ja auch für Netcup interessant. Zudem würde mich mal interessieren, ob andere Kunden das Phänomen ebenfalls nachstellen können. Wäre bestimmt interessant zu erfahren, ob das Problem an einem kaputten virtio Treiber im 4.12er Kernel liegt und/oder nur in Verbindung mit dem KVM Netzwerk von Netcup :-).


    Gruß

    Paul

    In der Linux Welt hat man ja genau deswegen auch immer einen Cluster mit einer ungeraden Anzahl an Nodes, die ihren Master dann selbst wählen (MySQL Galera Cluster z.B.). So kann es kein Split-Brain Szenario geben, da es immer eine Mehrheit geben muss. Kommt aber auch auf die Software drauf an, das kann dann teilweise schon unterschiedlich geregelt werden.


    In deinem Fall hat halt das Quorum Device das Sagen. Aber was machst du, wenn dieses selbst mal einen Schaden hat und nicht mehr richtig arbeitet? Dann ist ja dein kompletter Cluster down (Single Point of Failure). Muss aber auch dazu sagen, dass ich Solaris nicht so gut kenne und mir das Verhalten vermutlich deswegen auch etwas fremd vor kommt.

    Hm...ich arbeite ja ziemlich viel mit HA Clustern, aber dieser Methode bin ich bisher noch nicht begegnet. Sehe da ehrlich gesagt auch nicht so viel Nutzen drin.


    Wie sieht denn dein Szenario aus, bei dem du das benötigst? Im Grunde gibt es ja nur 2 mögliche Fehler: Hardware Fehler (dann ist der Node eh tot) und Software Fehler (z.B. könnte der PHP Dienst sterben, dann schwenkt die Failover-IP auf den noch funktionierenden Node).


    Wenn ich bei einem Software-Fehler den kompletten Node abschieße, dann ist dieser Vorgang ja einmalig, d.h. der Node kann von selbst nicht mehr aktives Mitglied des Clusters werden. Was machst du, wenn z.B. der Health-Check mal fälschlicherweise denkt, der Dienst sei nicht mehr da und den Node einfach so abschießt? Irgendwie ist mit diese Methode etwas zu radikal :-). Aber mich würde es sehr interessieren, wenn du mal beschreiben würdest, warum du das so machen willst.

    Warum nicht einfach auf eine Distribution setzen, die per default LibreSSL einsetzt, Alpine Linux¹ z.B.? Man darf nicht vergessen, dass sämtliche Pakete gegen LibreSSL neu gebaut werden müssen. Das dürfte sich zu einer ziemlichen Sisyphos Arbeit entwickeln. Am Ende bleibt dann vom eigentlichen Debian wenig übrig.


    [1] https://alpinelinux.org/

    Man sollte auch nicht vergessen, dass es im Grunde überhaupt nichts bringt hier auf irgendwelchen VPS Mining zu betreiben. Es hat schon einen Grund warum sich die Leute teure Gaming Grafikkarten kaufen und mit diesen Mining betreiben. Diese haben deutlich(!!!) mehr Leistung. Die VPS (gilt aber auch für die Root Server) sind für solche Vorhaben völlig ungeeignet. Da kommt nichts bei rum.

    Nüchtern betrachtet sind eigentlich alle Distributionen in ihrer Minimal-Installation sicher. Sicherheitslücken kommen in der Regel durch die Applikationen, die darauf betrieben werden. Wenn ich ein veraltetes Wordpress einsetze, dann spielt auch die Distribution darunter kaum noch eine Rolle, weil die Sicherheitslücke auch so ausgenutzt werden kann.


    Prinzipiell erhöht jede zusätzliche Applikation das Risiko. Daher ist ein Control Panel immer ein Nachteil,wenn es um Sicherheit geht.


    Natürlich kann man auch schon bei der Distribution auf Sicherheit achten und z.B. SELinux einsetzen (CentOS, Fedora etc.). Mir gefällt auch Alpine Linux ganz gut. Die setzen statt glibc auf musl und kommen sehr minimal daher (sehr beliebt bei Docker Containern). Aber das ist alles Geschmackssache.


    Womit man generell ganz gut fährt: CentOS + Konfiguration-Management via Ansible/Chef/Puppet etc. (mein Favorit).


    Es gilt aber immer: Anfällig ist nur das, was auch da ist. Daher immer nur das installieren und dann auch starten, was wirklich benötigt wird.