Posts by Skulduggery

    Ähm ich will mal darauf hinweisen das hier ehr ein Fehler auf der Rechnung existiert. Wenn ich alle Postitonen zusammenrechne komme ich auf -117,24€ nicht wie dort Angegeben -117,23€ (und ja diese Zahl hat keine Rundungsmöglichkeiten). Demnach existiert auch kein wirklicher Rundungsfehler wenn man vom Wert -117,24€ ausgehend die Steuer von (-22,27€) aufschlägt.


    Mal ne relativ blöde Frage macht das überhaupt einen Sinn das so zu berechnen? Im Endeffekt hat doch die Verrechnung aus einer anderen Rechnung dort keinerlei Sinn. Macht doch mehr Arbeit als ne Rückerstattung und eine Rechnung über 22,92€ zuerstellen mit sauberer Steuer etc.

    CentOS ist meiner Meinung nach so mancher anderen Distrubition in Sachen Stabilität und Pflegbarkeit um paar Jahre vorraus. Meine Erlebnisse unter Ubuntu sind ehr grausam. Debian ist da zwar besser dran denoch kämpfe ich mich da auch mehr damit ab was die "komplett" anders machen zu CentOS oder sogar schon zum Hersteller (MariaDB #UTF8MB4foremoji).


    Wenn wir schon beim Thema ISO sind, da kann ich den Debian Verein fast nur Gratulieren wie das mit Buster gelaufen ist.

    1. Release the newest ISO (Buster)
    2. Remove any path to former ISO (Stretch)
    3. Maybe reconsider that step because there is software (Unifi NVR) which is not compatible to Buster yet.
    4. Angry User destroy the whole internet for searching a damn ISO.

    Hach die IT, da wird aus Fehler auch selten was gelernt...

    Wegen eines vermeintliches Netzwerkproblems, habe ich heute einen Bug im Monitoring Plugin gefunden... 😡


    Der Bug lässt sich unter Ubuntu Bionic mit selbst compilierten Nagios Plugins beheben. Ich verstehe immer noch nicht warum monitoring-plugins das selbe nicht auch schon drin hat.

    Naja die Plugins schleifen Allgemein, aber da wird es auf absehbarer Zeit keine wirkliche Lösung geben. Gibt schon genug Entwickler die Bugs einfach eigenhändig geschlossen haben und das in ihrem Github Repo bereitstellen. SNMP Plugins sind ja schon fast spitzenreiter.


    Der einzige Sinnvolle und logische Weg ist, sämtliche Plugins auf GO-Lang zu migrieren. Nicht das Perl grausam sei, aber das Projekt wird kein großen Sprünge mehr machen. Nachdem GO so ziemlich Java-like überall läuft mit seinen Binary würde das schon fast praktikabel sein und werden.

    Code
    1. May 26 19:13:52 srv25 named[832]: dumping master file: /etc/bind/tmp-6e7V7MQYLL: open: permission denied
    2. May 26 19:15:06 srv25 named[832]: unable to remove masterfile '/etc/bind/db.domain.tld': 'Permission denied'
    3. May 26 19:15:06 srv25 named[832]: zone domain.tld/IN: transfer: could not set file modification time of '/etc/bind/db.domain.tld': permission denied
    4. May 26 19:15:06 srv25 named[832]: dumping master file: /etc/bind/tmp-ewUMlWOYta: open: permission denied

    Ich hab deinen Post mal eben aufs wesentliche Problem reduziert, eventuell kann Google dir hierbei nun besser helfen in dem du einfach mal nach "permissions for bind" suchst. Den die scheinen Bind momentan nicht so zu gefallen.

    Soweit meine Recherchen (5 Minuten) reichen ist das IPV6_DEFAULTDEV, dann notwendig wenn ein nicht geroutetes IPV6_DEFAULTGW gesetzt wird oder komische Technologie wie 6to4 Tunnel. Ansonsten sollte eigentlich die spezifizierung mit DEVICE oder HWADDR ausreichend sein. HWADDR wäre am vernünftigste sofern man keine udev Regeln dafür anwendet. Da spart man sich so das eine oder andere Abenteuer mit openvswitch das die Interfaces nicht mehr richtig sortieren kann.


    Hast du ggf. die Möglichkeit es auszuprobieren mit HWADDR oder DEVICE?

    Grafana hat auch nichts mit Trending so richtig zu tun. Grafana dient zur Analyse und Darstellung von Time-Series Datenbanken oder anderer Datenquellen. Trending ist eines von vielen Themen die du damit realisieren kannst.


    Zu Zabbix kann ich nichts sagen, verwende nur Icinga 2 und den ganzen Baum an Integrationen und Modulen.

    Ich möchte ein kurzes Update zu meinem OpenSource Rechenzentrumsprojekt nachreichen.


    Das 10 Gbit Backbone wird vorerst nicht kommen, stattdessen werden die Server direkt Point-to-Point mit 40Gbit Infiniband angebunden.
    Gründe dafür sind:

    • 40Gbit Infiniband Dualport Karten und auch Switche sind wesentlich preiswerter
    • Infiniband bietet unter Ceph die möglichkeit von Remote Direct Memory Access (<supa fast)
    • Infiniband ist exterm Flexibel, man kann RDMA und IPoIB parallel betreiben

    Gerade die Möglichkeit Ceph mit RDMA anstatt von TCP zu synchronisieren ist schon echt sexy. Noch dazu parallel ein, zwei oder paar Netzwerkverbindungen drauf legen zu können ist noch mehr sexy. Damit kann ich super Preiswert 40Gbit haben und unter Ceph zumindest von einem schönen Performance Zuwachs profitieren. Momentan fantasiere ich mit 500k IOPS und etwa 3-4GB/s an Durchsatz die am Ende rausfallen sollten.


    Weiterführende Links:

    https://en.wikipedia.org/wiki/InfiniBand

    https://en.wikipedia.org/wiki/Remote_direct_memory_access

    https://access.redhat.com/docu…iniBand_and_RDMA_Networks

    https://www.redhat.com/cms/man…rchitecture-201610-en.pdf

    https://de.slideshare.net/somnathroy7568/ceph-on-rdma


    Noch am Rande, die 600 war jetzt nur eine Fiktive Platten Anzahl, wollte mich da jetzt nicht fest fahren. Wollte beinahe schon schreiben das 3,5" Platten eigentlich Platzverschwendung ist, aber Supermicro bietet tatsächlich 72 Plattengehäuse auf 4HE an mit Front und Rear Loader, was bedeutet das du mindestens 10 von denen in ein Rack bekommst was 720 Platten in einem Rack entspricht. Mit 720 Spindeln kannst du es richtig krachen lassen und wenn du gleich an Silizium Speicher denkst, weißt du auf jeden Fall das 10 GBit hier schon maximal unterdemensioniert ist. Ich würde sagen 100GBit ist hier im Overlay schon minimum. 720 / 3 * 1862GB = Hochverfügbar 446 TB auf 48 HE, würde ich durchaus gerne mal bauen um zu sehen was da alles so schief gehen kann. Bei sowas würde ich auch erst garnicht auf Datacenter SSDs gehen, weil mir 240 Platten weg fliegen können bevor es auch nur im Ansatz kritisch wird. Allein der IOP und Durchsatz bei 720 SSDs im Verbund wäre denke ich schon richtig krass.

    Klingt interessant. Gibt es da etwas zu lesen?

    Das ist eine sehr gute Frage, die Gedanken hierzu sind auf jeden Fall da. Es soll dazu dienen mal zu zeigen was mit OpenSource alles möglich ist und es nicht zwangsweise eine Infrastruktur auf Basis von VMware, NetApp, Cisco und co. erfordert um Erfolgreich zu sein. Kurz gesagt für mich und meine Kollegen ist es eine Spielwiese für alles mögliche und für aussenstehende soll es eine Art "OpenSource Machbarkeitsstudie" werden. Durchaus mit einer kritischen Betrachtung anderer Faktoren wie Wirtschaftlichkeit und Ressourcen Aufwand für sowohl die Umsetzung als auch den Betrieb.


    Wie schon oben erwähnt sind da ein, zwei Leute mehr darin involviert. Deswegen muss ich dass da auch erst mal in Trockene Tücher bringen, ob und falls ja wie man es machen möchte. Meinerseits kann es durchaus passieren das man mich mit einem Vortrag auf OpenSource Konferenzen später "erwischen" kann. Ansonsten wäre die billigste Lösung ein Blog nur sehe ich da ehr die Gefahr das der irgendwann einschläft.

    Oh wusste gar nicht das der Linux-Installer diese Größen anzeigt, benutze den wohl zu selten =O Vor allem df, vgdisplay und Konsorten verwenden ja wieder die "richtigen" Größen, keine Ahnung wer auf diese "sinnvoll Idee" kam diese Einheit im Installer zu verwenden... :wacko:


    Aber ich fürchte aus meinem GlusterFS-Test-Cluster wird erst einmal nichts, ich glaube beide VPS Plus Server sind auf dem gleichen Wirt gelandet, was das ganze ja absurd wirken lässt (und keine reale Performance wiederspiegelt) ^^

    Ich glaube kaum das die netcup Wirtsysteme mit über 20 GBits angebunden sind :/

    Warum soll das nicht der Fall sein? Wäre traurig wenn da nur zwei Gbit Interfaces 20 Maschinen ins Netz bringen, migration abwickeln und haste nicht gesehen.

    Selbst das Interne Backbone auf meiner Spielwiese wird mit 2 x 10Gbit pro Node ausgelegt sein, alles darunter wäre viel zu langsam für ceph und haste nicht gesehen. Wobei meine Spielwiese sowieso weit von normal entfernt ist, wenn man die Sicht auf ein reines "Home"-Lab beschränkt sprich Private Nutzung.


    Ich werde aber auch nie verstehen warum Netcup so verbissen auf diese Lokale Storage Geschichte setzt. Klar lokaler I/O ist immer noch der beste aber auch nicht unbedingt der flexibelste. Ich wage zu behaupten, mit einem 600 Platten Array bisschen Arbeitsspeicher und vielen 10GBit verbindungen, lässt es sich mehr und flexibler krachen. Ich lass mich da aber gerne bei einer Führung eines besseren belehren.

    All diese Dinge die du hier fragst lassen sich doch ganz einfach durch ein wenig Google und ausprobieren lösen.


    Wenn ich schon lese was deine Argumentation bzgl. SSH-Pubkey ist, verdrehts mir den Magen.


    Wäre es nicht sinnvoller ein Webhosting Paket zu buchen?

    ---Offtopic

    Da musste ich mal wieder schmunzeln...


    Naja wir können ja den Thread dann schließen wenn Stackoverflow kuhler ist! Er wird eh nicht auf uns hören, bezüglich des Webhostings, bis er mit seinen Server auf die Nase fällt. Ich hab eigentlich kein Interesse mehr an dem Thread, aber ja... man sieht das Ergebnis.


    ---Beitrag
    Wenn wir schon Schwachsinn erwähnen würde ich dir raten, mich mal darüber zu informieren, wie man so einen SSH-Server konfigurieren kann. SSH-Key ist absoluter 0815 Security shit und wenn du da schon von der Komfortzone träumst (Naja gut wenn man halt keinen Plan hat.) das du dich bequem von überall aus verbinden willst. Lass es bleiben!

    Ich würde mich normalerweise nicht nochmal äußern, aber ich helfe sehr gernen Leuten in diesem Forum mit ihren Problem. Wenn es meine Zeit und Lust erlaubt.

    Jedoch muss du verstehen das meine Hilfe mit zwei ganz einfache Voraussetzung in Verbinung stehen:

    1. Ich habe einen Plan was ich erreichen möchte, aber nicht zwangsweise eine Vorstellung zur Umsetzung, um mein Ziel zu erreichen.
    2. Ich bin der Lage mich unter Linux zu bewegen und weiß im ungefähren was ich da gerade mache. (Das ist der eigentlich viel wichtigere Punkt).

    So natürlich kann ich jetzt nicht deine Fingerfertigkeiten beurteilen, da gebe ich dir vollkommen recht. Jedoch bin ich mir in Punkt 1. ganz Sicher das du diesen Plan nicht hast. Wir diskutieren über 10 Einträge lang was das Betriebssystem werden soll. Da werden dir Vorschläge gebracht die Teilweise auch gut untermauert werden und im nächsten Eintrag ändert sich deine Windrichtung komplett (Debian <> Fedora). Wenn du Fedora nun mal kennst, verwendest du auf deinem Server am Besten CentOS. Warum rate ich dir dazu? Ganz einfach weil CentOS auf stabilität und langzeit Pfelge setzt und sich wie Fedora in der Bedienung weitestgehend verhält.


    Nimm es mir nicht böse, aber ich helfe wirklich gerne. Nur ohne Basis endet das hier wie die meisten Threads dieser Art in Chaos. Wenn du merkst das diese Basis (Bedingungen) nicht vorhanden ist, sollte es dir bereits zu denken geben ob mein Vorhaben überhaupt so realisierbar ist. Das ist alles wirklich nur nett gemeint, jeder der hier Erfahrung hat, weiß wie schmerzhaft und teuer es ist, Wissen in der IT aufzubauen. Deshalb versucht man auch durch eine Art Selbstschutz die Leute davon abzuhalten, etwas dummes zu machen, oder versucht gleich ihnen die Frustration zu ersparen...

    Tipp am Rande, versuch bitte deine Thematik in einem Thread zu behandeln. Hier haben wir nun ein Eckstein und im anderen Thread einen anderen. Damit ist es für dich und alle anderen nicht einfach den Überblick zu haben, oder gezielt helfen zu können.

    Du willst ne Datenbank auf ein Shared Storage schmeissen wo du nix in der Hand hast, vermutlich schön brav mit NFS mountest und der Share sich jeder Zeit verabschieden kann, kuhle Sache!


    Aus Erfahrung sage ich dir gleich, NFS ist für Datenbanken so absolut das schlechteste was man machen kann. Nen NFS share ist schon als Backup Ziel für XtraBackup eine absolute Katastrophe, weil keiner so wirklich sicherstellt, in der gesamten Kette, ob die Daten in erste Linie überhaupt schon geschrieben wurden und wie es um deren Konsitent steht.


    Datenbanken legst du bitte immer auf die lokale Platte völlig frei von den Umständen, wenn du Verfügbarkeit möchtest bau dir nen Master-Slave bzw. nutze bereits in der Software implementierte Funktionen. Das ist um 99% besser als ne Datenbank auf NFS shared zu machen. Da kann es vermutlich auch passieren das Netcup dir irgendwann den Share wegknallt, weil du IOPs verbrätst jenseits von gut und böse.


    Offtopic am Rande:

    Sofern ich mich nicht falsch erinnere hat Netcup ne NetApp im Einsatz das bedeutet das Ding ist 24/7 am laufen. Die Teile haben nicht mal eine Power-Taste und wenn die es mit DataOntap Clustered am laufen haben können die den Stuhl on the fly updaten.