Beiträge von julian-w

    Da in dem anderen Thread bereits darüber diskutiert wurde wollte ich mal hier in die Runde fragen:

    Wenn ihr Debian neu installiert, sind eure Interfaces dann auf einmal auch wieder eth0/1 anstelle von ens3/6 :/

    Da laufen wohl die Vorbereitungen für Cloud-Init :-) Das braucht ja komplett neue Images. Ist natürlich schon etwas blöd für diejenigen, die sich an die alten Images gewöhnt haben und Netcup diese still und heimlich einfach austauscht. Hätte mir da zumindest eine offizielle Mitteilung gewünscht, wenn es da schon so grundlegende Änderungen gibt.

    Die neuen Images hinterlassen auch noch Spuren: in meinem Debian gab es eine "net.sh" im /root-Ordner, die vermutlich nicht von Debian stammt ^^ Aber ja eine Info wäre nicht schlecht gewesen, vor allem da in Debian 9 die ens-Namensgebung der neue Standard ist, der von netcup genutzt wurde und dann irgendwann nicht mehr. Fände es gut einen Hinweis zu bringen falls man nicht dem Standard folgt ;)

    Ich habe gestern Debian neu installiert und da hießen die Interfaces auch wieder eth0 und eth1, anstatt ens3 und ens6.


    Anscheinend hat netcup was an den Images geändert sodass (zumindest Debian) anstatt den ens-Namen wieder die eth-Namen nutzt. Hat mich anfangs aber auch etwas irritiert, zum Glück gab es den Thread hier :D

    Braucht noch jemand einen VPS 16 Years? Gegen Übernahme der Kosten für den Vertragswechsel ist er zu haben, kostet 16€ im Monat (monatlich kündbar), hat 16GB RAM, 1,6 TB SAS (RAID10), 8 vCores und 80TB unlimitierter Traffic. Wer ihn haben will kann eine PM schreiben, ist noch bis Mitte März bezahlt. Wurde bei mir durch den VPS 2000 G8 Plus ersetzt ;)

    Wenn ich das richtig lese, dann bietet Netcup bei Bestellung von z.B. zwei Cloud R640 1K ein Clustermanagement via netcup VCP an. Oder wie versteht ihr den Text? Hat jemand da mehr Infos oder hat das Produkt gebucht?

    Wie vmk schon geschrieben hat, geht es hier um ein Cluster von vServern, ähnlich der Softwarelösung von VMWare.


    Ein vServer Cluster und ein MySQL-Cluster sind völlig verschiedene Dinge und haben im Grunde nichts miteinander zu tun, außer das mehrere Server im Spiel sind die sich "irgendwie absprechen". Nur weil man ein vServer Cluster hat, hat man keinesfalls irgendeine Software ohne Konfiguration als Cluster (verteilt auf mehrere Nodes) die automatisch verteilt läuft und skaliert.

    Eventuell gibt es eine Softwarelösung die Vserver zusammen fasst und als EINE Ressource zur Verfügung stellt, OHNE dabei ein Custom-Cluster aufwendig händisch zu konfigurieren?(!) :/

    Die Softwarelösung ist halt, in deinem Falle, ein Cluster mit MySQL zu bauen. Das ist so einfach bzw, schwierig wie z.B. in deinem verlinkten Tutorial. Da führt auch kein Weg dran vorbei. Das Cloud vLAN von netcup ist dabei ein sehr nützliches Werkzeug, in der 100 MBit/s Variante sogar kostenlos.


    Davon ab hat ein RS8000 schon ordentlich Power, selbst ein einzelner MySQL-Server erreicht da schon ordentlich Durchsatz ;) MySQL-Cluster zu bauen, um mehr Performance zu bekommen, ist halt definitiv nicht trivial und es kommt auch auf die Anwendung an. Einfacherer ist es ein Cluster für erhöhte Verfügbarkeit zu bauen.

    Bei MySQL gibt es noch die Möglichkeit, falls wenig geschrieben wird und nur viel gelesen, eine Master-Slave-Replikation zu bauen. Ein Master schreibt, von den Slaves wird nur gelesen und der Master pusht alle Änderungen zu den Slaves. Ausschließlich lesende Queries skalieren damit extrem gut, sofern nicht übermäßig viel geschrieben wird und das Cluster ist halbwegs einfach zu administrieren. Cluster sind eben anspruchsvoll.


    Noch einfacher geht ein Cluster halt nicht, außer man kauft bei einem Anbieter die komplette fertig Lösung ein, bezahlt dann aber dementsprechend.


    Eine "Zauber-Software" der man sagt "hier mach Cluster und zwar mit viel Performance" gibt es leider nicht, gerade Datenbanken erfordern etwas Erfahrung und viel Feingefühl im Umgang mit den Parametern, damit es ordentlich läuft.


    Und mehrere vServer als "eine Ressource" zusammenzufassen und darzustellen ist kompletter Blödsinn und gibt es so auch nicht. Selbst "Super-Computer" treten als viele einzelne Server auf, wo man geschickt seine Applikation drauf verteilen muss. Du wirst keine Software finden die dir aus 3x RS8000 einen RS24000 zaubert ;)

    Nun, die RS8000 laufen auch bloß a la virtuelle Maschine. Daher sollte es doch ein leichtes sein Ressourcen dazu zu buchen OHNE dabei extra jeden Server einzeln konfigurieren zu müssen, um damit dann ein Custom-Cluster zu betreiben. :/

    Dann hast du aber doch kein Cluster? Sondern nur eine Maschine? Die VMs von netcup lassen sich auch nicht dynamisch konfigurieren, also du kannst nicht sagen "bucht mir 2 CPU Kerne dazu". Nur so sind die günstigen Preise möglich, wurde hier im Forum mehrfach erwähnt (schau dir mal bei Cloud-Anbietern an die dich dynamisch konfigurieren lassen, was da eine vergleichbare VM im Monat kostet... meist 100€ und mehr).


    Nur weil die Systeme virtuell sind kann man da nicht "unendlich viele" Ressourcen dazubuchen. Eine VM kann nur auf einem "Wirt-Server" laufen, von daher gibt es ein natürliches Limit. Eine VM läuft auch nicht irgendwie auf mehreren Wirt-Servern gleichzeitig oder so ^^ Wenn du das Limit überwinden willst, bleibt dir nur die Option ein richtiges Cluster zu bauen und dies vor allem richtig zu konfigurieren, sonst ist das unter Umständen langsamer wie auf einem einzelnen Server.


    Am besten ließt du dich noch etwas ins Thema Cluster ein, ganz wichtig ist auch das CAP-Theorem.

    https://de.wikipedia.org/wiki/CAP-Theorem

    Ist es möglich, OHNE diese Konfiguration über netcup ein Cluster aus mehreren Servern zu erzeugen, die als EIN System agieren?

    Nein wie soll das funktionieren? Netcup stellt nur den "nackigen" Server, für den Rest bist du verantwortlich.


    Wenn du eine Datenbank "ohne Sorgen" betrieben willst, musst du zu einem der 3 gigantischen "Cloud-Anbietern" gehen, einer von denen betreibt nebene eine Suchmaschine, der andere ist noch Online-Händler und der dritte stellt das meist verbreitete Desktop-OS her ;) Diese haben fertig Lösungen wo du dich nicht um die Administration kümmern musst, dafür zahlst du dann entsprechend.

    Nun, auf einer Skale 1-10 würde ich mich auf 5-6 einschätzen. Ich lerne aber gern dazu. ;-)

    Ich hoffe aber nicht in Bezug darauf wie man ein Cloud Cluster baut, sonst machen die Fragen von dir keinen Sinn... ich hoffe du meinst damit allgemein "Administration von (Linux) Servern" ^^


    Wenn du MySQL brauchst/willst schau dir am besten an welche Möglichkeiten es gibt ein Cluster zu bauen, wäge ab und teste es mal aus. Als Alternative zu MySQL bietet sich immer noch MariaDB an, auch wenn beide mittlerweile stärker voneinander wegdriften, sind die meisten Applikationen noch auf beidem lauffähig.

    Der Raspi hat ein SPI. Gibts keine Anleitung im Netz, wie du das selbst aufspielen kannst? Vorausgesetzt natürlich du hast nen Pi.

    Oder einfach den billig Clone Arduino für 3-4€ auf eBay kaufen (3,3V!). Anleitungen gibt es dazu auch genug im Internet, z.B. hier:

    https://tomvanveen.eu/flashing-bios-chip-arduino/


    Nur auf die Spannung achten: 5V mögen nicht alle BIOS Chips und zeigen ihre Abneigung dazu mit Rauchzeichen, daher am besten gleich einen 3,3V Arduino nutzen, Pegelwandler dazwischen schalten (billig Version mit Pegelstände oder "Profi" Version mit Transistor) oder halt den RPi ;)

    Nun, ein Cloud Cluster bestehend, meines erachtens, aus mehreren Servern die sich als EIN System verhalten.

    Das liegt dann aber an der Software und nicht am Server/der Plattform. Du musst dich später darum kümmern, dass sich das Cluster wie "ein System" verhält, und sowas ist alles andere als trivial (schon nur Split Brain und Konsistenz sind zwei große Punkte).


    Wie gut deine Anwendung skaliert hängt auch wieder von deiner konkreten Anwendung ab und wie gut du diese im Griff hast. netcup wird nicht der limitierende Faktor sein, außer du kaufst alle vServer auf ;)


    Ohne viel Erfahrung in der Administration der Anwendung, sei es MySQL, MariaDB, Postgresql, MongoDB, GlusterFS. Apache Cassandra oder sonst was wird das in der Regel nichts. Der Bau und Administration eines Cluster ist definitiv nur etwas für fortgeschrittene, wenn es gescheit laufen soll.


    Aber mit der Infrastruktur von netcup ist das errichten eines Cluster prinzipiell kein Problem und ein Cloud R640 1K für grob 450€ im Monat ist absolut nicht notwendig dafür. Was du genau brauchst hängt von deiner Applikation ab.

    Was verstehst du unter Cloud Cluster?


    Das Angebot für 452€ (Cloud R640 1K) ist ein leistungsstarker Server, auf dem die Virtualisierungs-Lösung von netcup läuft die du selbst nutzen kannst, um selbst VMs zu erstellen und verwalten. Sofern du nur ein Produkt buchst hast du auch kein "Cluster" im eigentlichen Sinne.


    Die RS8000 sind "einfach nur" virtuelle Server, mit einer entsprechenden Software kann man daraus ein Cluster bauen, wobei man meist 3 Server (bzw. eine ungerade Anazahl) nutzen sollte, da es sonst z.B. zum Split Brain und ähnlichen kommen kann.


    Von daher: Cloud R640 1K und RS8000 sind komplett verschiedene Produkte und ein Cloud Cluster ist wieder was anderes, was willst du denn erreichen :/


    Edit:


    hat von euch jemand Erfahrung mit einem Cloud Cluster hier bei Netcup?

    Jap, haben ganz viele hier mich eingeschlossen, häufig wird wohl ein MariaDB/PostgreSQL Cluster betrieben, ich habe noch ein GlusterFS Cluster. Gibt auch berichte über Ceph Cluster hier im Forum, wobei dafür netcup wohl nicht ganz ideal zu seinen scheint. Im Grunde könnte man auch mehrere DNS-Server als Cluster bezeichnen :/ Im großen und ganzen ist, vor allem in Verbindung mit einem vLAN, der Betrieb eines Cluster (entsprechende Software/Kenntnisse vorausgesetzt) bei netcup problemlos möglich 8)

    Auch ist das mein bisher erster Public-Server. Schon nach weniger als einem Halben Tag Betrieb habe ich eine ordentliche Menge an Einträgen in der fail2ban.log...

    Das ist aber normal. Sicherheit ist halt am Anfang das oberste Gebot, bevor überhaupt irgendein Service auf dem System läuft. Anleitung gibt es im Internet oder auch hier im Forum mehr wie genug, einfach die Suche benutzten.


    Die Web-API fände ich eine gute Funktion, da ich für Monitoringfunktionen auf dem Host ja wieder Listening Port(s) aufmache und sich dann sofort die ganzen Sicherheitsfragen stellen.

    Nicht unbedingt, es kommt auf das verwendete System an etc. Es gibt z.B. auch ein kostenloses vLAN bei netcup um mehrere Server abgeschottet vom Internet zu verbinden. Zudem ist VPN oftmals auch eine Lösung. Oder man lässt das Monitoring lokal laufen wenn man eh nur einen Server hat.

    laut Dokumentation gibt es eine Webservice-Methode "getVServerLoad". Leider ist dazu wenig dokumentiert. Ich vermute mal, dass man die CPU-Last zurück bekommt.

    Bitte die ganze Dokumentation lesen:


    Hinweis: Diese Funktion ist ausschließlich für vServer basierend auf Linux-VServer gültig.

    Auf allen neueren vServer Produkten die auf KVM basieren funktioniert dies nicht. vServer auf Linux-VServer gibt es seit gefühlten 10 Jahre nicht mehr bei netcup. Von daher ist die Funktion bei dir höchstwahrscheinlich nicht verfügbar.


    Mich interessiert diese Frage, da ich damit eine rudimentäres DoS Monitoring aufsetzen könnte.

    Vermutlich eher nicht selbst wenn es diese Funktion gäbe, davon ab betreibt netcup für dich einen DDoS-Filter bereits ;) Davon ab, was willst du machen wenn ein DDoS auf dich gefahren wird, nullrouten oder ähnliches kannst du sowieso nicht. Den Angriff am Server abzuwehren ist meist nicht möglich, da die Bandbreite nur über 1 GBit/s sein muss und schon hast du keine Chance mehr. Daher muss der DDoS-Filter vor deinem vServer installiert sein, was er auch ist. Siehe hier


    Falls du CPU-Load etc. monitoren willst, empfehlen sich Tools wie munin oder Telegrapher/influxDB/Grafana oder ähnliches, gibt unzählige Monitoring Tools 8)

    Eine Website ist sofort zu sehen "Hier entsteht eine neue Website" das ist aber die "lokale" Site aus Netcup....

    Die eigentliche site ist eine Musikband...:)

    Bei mir erschien gestern schon die Google Site, also alles in Ordnung nur etwas Geduld :) Ist wirklich nur ein alter gecachter Eintrag bei dir. Prinzipiell kann man, wenn DNS Änderungen anstehen, vorher die TTL zwei Tage vorher auf einen niedrigeren Wert stellen, dann sollte ein DNS Update schneller vonstatten gehen.

    Also gehe ich mal davon aus das es an Netcup liegt zumal wir 4Jahre lang keine Probleme hatten

    Google danach, du findest viele Leidtragende. Microsoft tut nach Lust und Laune IP-Bereiche ablehnen, in den SPAM verschieben oder - wost case - blackholen. Ich persönliche benutzt für Microsoft-Adressen den Amazon SES, kostet zwar Geld (ist aber der billigste), funktioniert aber in 95% der Fälle, zumindest Blackholing konnte ich noch nicht beobachten.


    Kann sein das ihr bei einem anderen Anbieter mehr Glück habt, kann aber auch nicht so sein.


    Microsoft will einfach Kohle sehen für E-Mails hab ich das Gefühl, wenn man die Ihnen nicht gibt ist man wohl der gelackmeierte ||

    Das unterstreicht auch die die Verschwendung.

    Wobei man dazu sagen muss, ein /32er-Netz entspricht "quasi" einer IPv4-Adresse, dann relativiert sich das alles auch wieder etwas ^^ (ich weiß ist natürlich etwas ungenau, da nur ein kleiner Teil von IPv6 geroutet wird etc., aber gibt einem ein ungefähres Gefühl)


    Am Beispiel von netcup: netcup hat zwei /32er-Netzte für sich beantragt (und eines für einen Kunden wohl) und laut he.net 61,184 IPv4-Adressen verteilt auf 46 Prefixe. Der Faktor 2 gegen 61.184 ist extrem. Auch 2 Einträge in der Routing-Tabelle gegen 46, wobei es sicherlich noch krassere Fälle gibt.

    da aus dem Zwang mehr als nur ein /64 zuzuweisen zu müssen,

    Der existiert nicht, sonst würden Endkunden nicht (fast) immer /64 bekommen ^^ Große Firmen brauchen natürlich mehr.

    f. den Aufwand sind 28-bit nicht wirklch die Welt ...

    Die Rechnung verstehe ich nicht ganz, aber du meinst 28 Bit sind effektiv nutzbar. Sonderadressen machen übrigens weniger wie 2% aus (Quelle Wiki). Ich bin mal so frei und sage: wir gewinnen nur 16 bit (im Vergleich zu IPv4) dazu, du gingst ja scheinbar von 28bit aus.


    Bei 48 bit ergeben sich grob 2,8 * 1014 komplette Netzte... reicht doch und das ist noch eine schwere Untertreibung in Wirklichkeit sind es viel mehr. Und man muss bedenken wir reden hier nicht von Adressen, sondern von Netzen. Der Adressraum ist einfach so unvorstellbar groß, daher tut es nicht weh /64er als kleinste Einheit anzusehen. Wenn man selbst etwas rumrechnet merkt man dies, dann muss man diese "Verschwendung" (die keine ist) einfach akzeptieren. Lieber zu viel wie zu wenig Adressen ;)


    Bislang wird im Internet sowieso "nur" 2000::/3 geroutet (RFC4291), der Rest ist reserviert, z.B. für den Fall das man merkt man war doch zu verschwenderisch, hat man noch ganz schön viele Adressen auf Halde. Aber alleine in diesem /3er Netz sind so viele 64er-Netzte enthalten (2,3 * 1018)... das kann man sich nicht vorstellen 8| Selbst wenn 99% für Infrastruktur drauf geht ist immer noch mehr wie genug da. Jedes BIt mehr verdoppelt die Anzahl verfügbarer Adressen.

    julian-w versteht es leider nicht, daß es einfach kompletter Quark ist, daß ein /64-Prefix als "kleinste Einheit" zu sehen ist

    weil unter diesem Gesichtspunkt in der Annahme er liege richtig, hast gerade ein paar Bits mehr als bei IPv4 und da ist es nur logisch

    daß viele auf IPv6 'pfeiffen' ..

    und es mehr Sinn macht sich was sauber zu überlegen, an Stelle von Design-Fehlern durchzudrücken ...

    Ein paar Bits mehr heißt konkret: aus grob 4 Milliarden IPv4-Adressen werden bei IPv6 1,8 * 1019 Subnetze (NICHT Adressen), die alle quasi unendlich viele Geräte beinhalten können (ebenfalls 1,8 * 10.19). Natürlich sind dies nicht alle nutzbar, einige sind reserviert für link-local, broadcast etc.


    Aber ich denke die Dimensionen werden damit klar, es sind nicht "ein paar Bits mehr", sondern eher soviel mehr Netzte das man diese unmöglich verbrauchen kann. Und wie oben erwähnt is der Sinn hinter diesen gigantischen Netzte die globale Routingtabelle so klein und einfach wie möglich zu halten.


    Edit:

    Und die saubere Überlegung ist im Beitrag oben drüber: "unendlich" große Subnetzte -> nie mehr wird ein Subnetz voll weil zu viele Clients darin sind; Extrem große Blöcke -> Routingtabelle bleibt klein und sauber. Und man hat genug Adressen/Netze für immer und ewig. Drei große Vorteile für IPv6 zu IPv4.


    Ihr sprecht valide Punkte an, aber der Ton dieser Diskussion driftet mir persönlich etwas zu sehr ab.

    [Ironie]Ja aber...aber... ich wurde hier als erste als Käse-Redner beschimpft ;( Okay gut eigentlich wollte ich mich auch ganz raushalten :( [/Ironie]