Die Netcup Website im Hintergrund, sieht aus wie eine Besprechung eures Web- oder Marketingteams. Ist ja schon lange bekannt, dass die Arbeit an Enten outgesourced wird, merkt man schließlich an all den Enten im Forum.
Posts by AutoYaST
-
-
Treiber im klassischen Sinne ist das keiner, VirtIO wird vom Linux Kernel unterstützt. Vermutlich hat das Netcup Image bloß irgendwas, was das Dateisystem nicht immer richtig vergrößert.
-
Falls ich mich korrekt erinnere, wurde das bei mir sogar schon angekündigt inkl. Downtime. Ich bekomme es bei einem Reboot auch deswegen mit, da meine Systeme vollverschlüsselt sind und deswegen beim Booten per Hand freigeschaltet werden müssen.
Jetzt wo du's sagst, das hatte ich auch schon - ich verwende zum automatischen entschlüsseln luksrku, aber nicht auf allen VM's, manche muss ich dann auch händisch entschlüsseln. Da das aber wie du sagst angekündigt ist und wenn dann meist gleich für mehrere Server auf einmal über ein paar Tage verteilt passiert für mich kein großes Problem, kombiniere die Gegelnheit dann mit OS Updates für die ich sowieso neu starten müsste.
-
auch Verschiebungen auf andere Hosts hatte ich schon mehrfach
Ich würde mal mutmaßen dass VM's im Hintergrund andauernd zwischen Hosts hin- und hergeschoben werden - sei es für Wartungsarbeiten, Lastverteilung, o.ä. - davon merkt man im Regelfall nichts.
-
mkdir "$yr" 2>/dev/null
set -e
-
-
Muss wohl was mit "One-Click" zu tun haben.
One-click Botnets - äußerst praktisch.
-
Kenne bislang nur den Knopf zum Auszahlen auf's Bankkonto.
-
Hat das Teil keine Logdateien o.ä.?
-
Im verbose Modus mit geloggten Queries kann man feststellen, ob das SERVFAIL tatsächlich vom Unbound oder von deinen lokalen systemd Nameservern kommt. Eventuell hapert es wo mit der DNSSEC Kette.
-
So maybe that wasn't it.
I agree with your explanation - however last time Netcup activated the filter for me they included log snippets with the source IP addresses, hence I figured the poster might have compared those with the one from their home.
-
Wer kennt sie nicht, die bösen Netcup-Forenspammer, dauernd sind sie nett und wollen anderen behilflich sein... schrecklich sowas!
-
mich würde aber auch balance-alb interessieren, falls du noch lust dazu hast.
Klar, dein Entenfoto ist da Motivation genug.
Code
Display Moreiperf3 -c fd29:8e45:f292:ff80::f Connecting to host fd29:8e45:f292:ff80::f, port 5201 [ 5] local fd29:8e45:f292:ff80::c port 42444 connected to fd29:8e45:f292:ff80::f port 5201 [ ID] Interval Transfer Bitrate Retr Cwnd [ 5] 0.00-1.00 sec 15.5 MBytes 130 Mbits/sec 0 674 KBytes [ 5] 1.00-2.00 sec 11.2 MBytes 94.4 Mbits/sec 290 297 KBytes [ 5] 2.00-3.00 sec 11.2 MBytes 94.4 Mbits/sec 0 321 KBytes [ 5] 3.00-4.00 sec 11.2 MBytes 94.4 Mbits/sec 0 346 KBytes [ 5] 4.00-5.00 sec 11.2 MBytes 94.4 Mbits/sec 0 371 KBytes [ 5] 5.00-6.00 sec 11.2 MBytes 94.4 Mbits/sec 0 393 KBytes [ 5] 6.00-7.00 sec 11.2 MBytes 94.4 Mbits/sec 0 414 KBytes [ 5] 7.00-8.00 sec 11.2 MBytes 94.4 Mbits/sec 0 434 KBytes [ 5] 8.00-9.00 sec 11.2 MBytes 94.4 Mbits/sec 0 453 KBytes [ 5] 9.00-10.01 sec 11.2 MBytes 93.7 Mbits/sec 0 471 KBytes - - - - - - - - - - - - - - - - - - - - - - - - - [ ID] Interval Transfer Bitrate Retr [ 5] 0.00-10.01 sec 117 MBytes 97.9 Mbits/sec 290 sender [ 5] 0.00-10.01 sec 114 MBytes 95.5 Mbits/sec receiver
Ping blieb zwischenzeitlich mal stecken.
Aber ein Netzwerkkollege meinte mal, dass balance-alb generell nicht so zu empfehlen sei - das scheint auch die Beschreibung in der Wiki wiederzuspiegeln.
Und der Support für IPv6 scheint auch recht frisch zu sein: https://lwn.net/Articles/888700/
-
Um zu erfahren, ob Diese auch Link Aggregation unterstützen oder können, müßte man es halt mal testen, indem man anstelle von "balance-rr" "802.3ad" konfiguriert.
Ich kann den Modus auf 802.3ad (4) umstellen, damit kommt zwar eine Verbindung zustande, aber Bandbreitentechnisch bringt das keinen Vorteil:
Code
Display Moreiperf3 -c fd29:8e45:f292:ff80::f Connecting to host fd29:8e45:f292:ff80::f, port 5201 [ 5] local fd29:8e45:f292:ff80::c port 56662 connected to fd29:8e45:f292:ff80::f port 5201 [ ID] Interval Transfer Bitrate Retr Cwnd [ 5] 0.00-1.00 sec 16.1 MBytes 135 Mbits/sec 25 576 KBytes [ 5] 1.00-2.00 sec 11.2 MBytes 94.4 Mbits/sec 185 258 KBytes [ 5] 2.00-3.00 sec 11.2 MBytes 94.4 Mbits/sec 0 289 KBytes [ 5] 3.00-4.00 sec 11.2 MBytes 94.4 Mbits/sec 0 317 KBytes [ 5] 4.00-5.00 sec 11.2 MBytes 94.4 Mbits/sec 0 343 KBytes [ 5] 5.00-6.00 sec 11.2 MBytes 94.4 Mbits/sec 0 367 KBytes [ 5] 6.00-7.00 sec 11.2 MBytes 94.4 Mbits/sec 0 389 KBytes [ 5] 7.00-8.00 sec 11.2 MBytes 94.4 Mbits/sec 0 410 KBytes [ 5] 8.00-9.00 sec 11.2 MBytes 94.4 Mbits/sec 0 431 KBytes [ 5] 9.00-10.00 sec 11.2 MBytes 94.4 Mbits/sec 0 450 KBytes - - - - - - - - - - - - - - - - - - - - - - - - - [ ID] Interval Transfer Bitrate Retr [ 5] 0.00-10.00 sec 117 MBytes 98.4 Mbits/sec 210 sender [ 5] 0.00-10.00 sec 114 MBytes 95.5 Mbits/sec receiver iperf Done.
Selbst wenn die Switche das unterstützen (was gut der Fall sein kann, da die Hosts wohl auch mit mehr als einem Anschluss verbunden sind), heißt das nicht, dass es auch in den darauf laufenden VLAN's genutzt werden kann.
Kernel Ausgabe:
-
Siehe https://wiki.linuxfoundation.org/networking/bonding -> Sektion Bonding Driver Options -> Option "mode".
-
Dazu bräuchte man einen Switch, welcher das unterstützt.
-
Hast das schon mal jemand versucht und die 100MBit vervielfacht?
Im "balance-rr" Modus sieht das mit 2x 100Mbit so aus:
Code
Display More$ iperf3 -c fd29:8e45:f292:ff80::f Connecting to host fd29:8e45:f292:ff80::f, port 5201 [ 5] local fd29:8e45:f292:ff80::c port 39100 connected to fd29:8e45:f292:ff80::f port 5201 [ ID] Interval Transfer Bitrate Retr Cwnd [ 5] 0.00-1.00 sec 22.8 MBytes 191 Mbits/sec 3257 23.7 KBytes [ 5] 1.00-2.00 sec 23.8 MBytes 199 Mbits/sec 952 25.1 KBytes [ 5] 2.00-3.00 sec 21.2 MBytes 178 Mbits/sec 1205 15.3 KBytes [ 5] 3.00-4.00 sec 18.8 MBytes 157 Mbits/sec 1068 29.3 KBytes [ 5] 4.00-5.00 sec 22.5 MBytes 189 Mbits/sec 845 18.1 KBytes [ 5] 5.00-6.00 sec 21.2 MBytes 178 Mbits/sec 1065 15.3 KBytes [ 5] 6.00-7.00 sec 21.2 MBytes 178 Mbits/sec 1281 18.1 KBytes [ 5] 7.00-8.00 sec 21.2 MBytes 178 Mbits/sec 686 9.76 KBytes [ 5] 8.00-9.00 sec 21.2 MBytes 178 Mbits/sec 893 22.3 KBytes [ 5] 9.00-10.00 sec 20.0 MBytes 168 Mbits/sec 957 16.7 KBytes - - - - - - - - - - - - - - - - - - - - - - - - - [ ID] Interval Transfer Bitrate Retr [ 5] 0.00-10.00 sec 214 MBytes 180 Mbits/sec 12209 sender [ 5] 0.00-10.00 sec 210 MBytes 176 Mbits/sec receiver iperf Done.
Ich möchte aber an die Vernunft appellieren - die Gratis VLAN's sind in Kombination mit den Preisen ein Top Angebot von Netcup - ich möchte dieses nicht verlieren, weil jetzt einige auf die Idee kommen, ihre Fluxmaschinen gratis mit 500Mbit/s zu verclustern. Wenn jemand kommerziell höhere Bandbreiten braucht, kann derjenige sich bestimmt die paar Euro für das regulaere Gigabit VLAN leisten. Was mich jetzt allerdings auf die Idee bringt, was ich bei der nächsten Aktion mit 5 2.5Gbit/s VLAN's anstellen könnte ...
-
Wiener Nürnberger.
-
Das Problem besteht auch, wenn die Platte nicht tatsächlich x% gefüllt, sondern "lediglich" mit LUKS verschlüsselt ist.
-
Ich kenne das aber so, dass man beim Einrichten eines KVM Clusters eine Baseline von CPU Flags aus allen Hosts zusammenzieht um dann fuer die virtuellen CPU's eine Konfiguration zu bekommen, welche die meisten "Features" unterstuetzt, aber auch mit allen Hosts kompatibel ist. Kann aber gut sein, dass Shared Hosting Betreiber das anders handhaben.