Posts by andreas.

    Der Support meint das VMX Flag ist aktiv und funktionsfähig.

    PS: Ich hatte vor ca. 3-4 Monaten schon einmal HyperV unter Windows Server 2019 laufen und da gings problemlos.

    Ob auch das VMX-Flag für deinen vServer tatsächlich gesetzt ist, kannst du recht schnell mit Hilfe des Rettungssystems und dem Befehls lscpu unter Linux überprüfen.


    Im Auszug sollte dann unter anderem auch so was ähnliches wie der Schriftzug Virtualization: VT-x für Intel oder Virtualization: AMD-V für AMD zu sehen sein.

    Ist es nicht zu sehen, ist das jeweilige Flag nicht gesetzt.


    Voraussetzung ist aber, bevor du den Server in den Rettungsmodus startest, dass du den Server vorher mal komplett ausschaltest. Denn der Grund ist, sofern der sogenannte Bauplan für deinen vServer auf dem Wirt vom Provider mal modifiziert wurde, dass nach dem Neustart Dieser neu eingelesen werden muß.


    Grundsätzlich ist Nested Virtualisierung eher eine Glücksache.

    Grundsätzlich ist Nested Virtualisierung mittlerweile sehr zuverlässig, solange das Wirtsystem mit Prozessen pro vCore nicht überbucht wird, da einfach ausgedrückt jeder vCore eines virtuellen Servers auf dem Wirtsystem nicht nur einen Prozess auslöst und damit das System belastet, sondern vom Wirt auch weitere Eigenschaften wie z.B. das entsprechende Flag an den jeweiligen virtuellen Server durchreichen muß.

    Die Website ist lediglich die Fassade für ein Warenwirtschaftssystem, das mit unserem stationären Server verbunden ist auf dem alles gespeichert und natürlich auch geschützt ist

    Wenn die Webseite nur eine Fassade ist, würde ich an eurer Stelle Diese vom Server auf ein Webspace Packet, wie z.B. Webhosting 8000 verlagern. Denn der Server wird dann vom Provider professionell gewartet. Ihr bräuchtet euch dann nur noch um eure Webseite (Fassade) zu kümmern.

    Danke für die ganzen Antworten! Lasse gerade eine Speicheroptimierung durchlaufen , da der Speicherplatz auch mein erster Gedanke war. Das dauert ca. 1h und dann werde ich die ganzen Sachen abfragen.

    Die Speicheroptimierung bringt garnix wenn die Platte vollgelaufen sein sollte. Das hättest dir sparen können.

    @TL181: So wie der Nutzer @ThomasChr es sieht, sehe ich es leider auch. Ihr werdet, sofern ihr das Problem versuchen möchtet selber zu lösen, nicht darum herumkommen, mal mit Hilfe des Befehls df -h den Plattenfüllstand zu prüfen, zumal es hier schon mehrere Nutzer so sehen.

    Nach dem erfolgreichen Reboot gingen die Mailserver ca. 5 Miuten nur um dann wieder nicht zu funktionieren. Jetzt kommt zusätzlich noch hinzu, dass unser Website sich nicht mehr aufrufen lässt. Leider ist der IT-ler der das Ganze damals eingerichtet hat (vor10 Jahren) nicht mehr bei uns und wir haben keine Ahnung wie wir das Problem jetzt lösen.

    So wie es aussieht, befürchte ich, dass gerade euer Server nicht mehr genügend Speicherplatz auf seiner Festplatte hat. Von daher würde an eurer Stelle als aller Erstes mal schauen, welche von den alten E-Mails gelöscht werden können, damit wieder Speicherplatz auf dem Server frei wird.


    Weiterhin könnt ihr für unsere Helfer mal folgende Befehle ausführen:


    cd /

    df -h


    Und dann das Ergebnis hier einfach mal aufzeigen.

    Nur so viel, es sind zusätzlich gebuchte IPs. Alles andere bleibt mein Geheimnis ;), sonst bräuchte ja keiner meiner Kunden diese Dienstleistung.

    Auf welcher Webseite kann man denn über deine Dienstleistung mehr erfahren?

    Falls hier nicht angebracht, auch gern per PN.

    Alle meine IPs, die zum Versand genutzt werden, sind sauber und haben eine sehr gute Reputation bei den "Großen". Ich mach nur ungern "Schleichwerbung".

    Hattest du dir mal zufälligerweise bei Netcup eine IP Range bestellt und bist auch zufälligerweise bei RIPE NCC (ripe.net) mit deinen Daten aufgrund deiner eventuellen eigenen IP-Adressen eingetragen? Oder wie nimmst du Einfluß auf deine IP-Adressen, wenn diese aus einem IP Range sind, welches wir bei Netcup mit vielen weiteren Kunden teilen?

    Aber ich glaube ich habe den Fehler gefunden. Und zwar ist mir eingefallen das ich doch etwas geändert hatte. Und zwar verschiebe ich Files innerhalb der Festplatte von A nach B mit einem Programm namens "rclone" falls das jemandem etwas sagt. Und dort hatte ich bisher immer 1 parallelen Transfer gleichzeitig. Vor ein paar Tagen hatte ich dieses auf 2 geändert. Hab's nun wieder auf 1 geändert gehabt vor 2 Stunden und bis jetzt kein freeze mehr. Werde das Mal beobachten ob es wirklich daran lag. Dann war vllt einfach die CPU oder sie Festplatte so stark überlastet das er sich "abgeschossen" hat.

    Ich vermute mal eher, dass das Programm rclone während des Verschiebevorgangs zuerst mal die einzelnen Dateien vom logischen Laufwerk A auf das logische Laufwerk B kopieren wird und dann, wenn der Kopiervorgang erfolgreich abgeschlossen ist, erst die einzelnen Dateien vom logischen Laufwerk A löschen wird. Während diesem Kopiervorgang verbraucht das Programm rclone temporär erst einmal weiteren Speicherplatz auf deiner gesamten Platte. Wenn dein System mal mehr als 50% an Speicherplatz verbrauchen wird, wird dein System eventuell wieder aufgrund dieses Problems einfrieren.


    Günstiger ist es, solche Kopien gleich auf einer externe virtuelle Festplatte auszulagern. Denn dann kannst du auch mehrere Transfers parallel durchführen lassen. Die CPU wird höchstwahrscheinlich da nicht das Problem sein.

    Das sieht so aus das wenn ich per Console über des Webpanel mich aufschalte ich den Sperrbildschirm sehe aber eben mit der Uhrzeit wo er "eingefroren" ist. Traffic etc ist natürlich auch nicht vorhanden. Manchmal geht das einher mit der Meldung das ich den Speicherplatz Optimieren müsse. Dies habe ich natürlich schon mehrere Male getan. Danach läuft der Server dann für ein paar Stunden und dann wieder das selbe.

    Für mich liest es sich eher so, als würde deine Systemplatte zu nahe 100% langsam zulaufen und das System von daher auch nach eine Weile einfrieren. Kann das sein? Logs können in diesem Moment auch vom System nicht mehr geschrieben werden.

    Was genau willst du damit zum Ausdruck bringen?

    Keine Sorge kann man bei mir tatsächlich auch wörtlich nehmen. Denn solange meine Server keine extremen Dauerlasts auf dem Wirt erzeugen, sollten solche IO-Tests oder auch ähnliche noch im Rahmen sein.


    Denn da ich als Kunde in der Zeit von ca. 2009 bis heute diesbezüglich noch keine Abmahnung vom Provider Netcup erhalten habe, kann ich auch davon ausgehen, dass mein Verhalten als Kunde gegenüber meinen Nachbarn auf den entsprechen Host´s sich immer im Rahmen gehalten haben.


    Ich kenne also auch die erste Generation der vServer des Providers Netcup. Da war tatsächlich ein IO-Test auch als einzelner Kunde noch ein Problem.


    Also kurzgehaltene IO-Tests gehören zur Serverwartung einfach dazu, um damit die Qualität der virtuellen Server zu prüfen und dauerhaft zu erhalten.

    Könnt Ihr mal bitte aufhören die Kisten mit euren sinnlosen Tests zu quälen? Danke.


    Gibt es konkrete Probleme oder nur "Hey mir ist langweilig lass mal was mit Last messen"?


    Keine Sorge. Als ich auf meinen VPS mit der Produktbezeichnung VPS 2000 G8 Plus den weiter oben gemachten Test durchgeführt habe, hat sich mein Server währenddessen eher gelangweilt. Siehe folgenden SAR-Auszug:

    Code
    1. 14:40:01 CPU %user %nice %system %iowait %steal %idle
    2. 14:40:01 all 0,05 0,00 0,03 0,00 0,06 99,86
    3. 14:50:01 all 0,08 0,00 0,31 1,80 0,08 97,73
    4. 15:00:01 all 0,06 0,00 0,08 0,32 0,05 99,49

    Ihr müßt den Befehl für HDD´s wie folgt ausführen:


    fio --randrepeat=1 --ioengine=libaio --direct=1 --gtod_reduce=1 --name=test1 --filename=test1 --bs=16k --iodepth=64 --size=4G --readwrite=randrw --rwmixread=75

    Auf meinem VPS mit HDD und der Produktbezeichnung VPS 2000 G8 Plus hat es ca. 5 Minuten gedauert.

    Denke also nicht, dass man 2x RAM braucht, die Ergebnisse sprechen für sich.

    Als ich es auf meinem RS 8000 G9 noch mal ausgeführt habe, habe ich auch festgestellt, dass die Option --direct=1 schon dafür sorgt, den RAM nicht mit zu nutzen. Siehe folgendes Ergebnis, welches auch so gut aussieht, wie auf dem VPS 8000 G9:


    fio --randrepeat=1 --ioengine=libaio --direct=1 --gtod_reduce=1 --name=test1 --filename=test1 --bs=4k --iodepth=64 --size=4G --readwrite=randrw --rwmixread=75


    Mit der G9 sieht das ganze nochmal anders aus, und ich bin gespannt, was bei Netcup an Cloudfunktionen kommen und wie sich die stundenbasierten Preise bei G9 verändern werden. :)

    Aus meiner Sicht ist die Generation 9 für VPS und RS - insbesondere der 8000 Reihe - sehr gelungen, was zum einen die IO-Performance und dessen Plattengröße der SSD´s angeht.


    Denn unter der URL Messen von IO Performance bzw. IOPS Performance der SSD hatte ich ja mal die gemessene IO-Performance des VPS 8000 G9 reingestellt gehabt

    Schaffen tun die sicherlich mehr. Nur werden bei den VPS Produkten die IOPS künstlich limitiert. Die Optane Produkte sind da leider keine Ausnahme.

    Ich hatte auch einen solchen. Bei den Host Updates durch Netup kam meine VM gar nicht mehr hoch, weil das Blockdevice in einen Timeout gelaufen ist.


    Generell hatten die Kisten keine gute IO Performance.

    Als ich mir meinen VPS 2000 G8 Plus (mit 1,5 TB SSD-Performance (Optane™ Cache)) für 14,49 Euro bestellt hatte, hatte ich diesen sofort als Storage Server vorgesehen gehabt und die Option SSD-Performance eher belächelt. Denn der Flaschenhals aus meiner Sicht beim Lesen von sehr vielen Daten parallel, sofern nicht schon durch einen Cache zwischengespeichert, sind halt die HDD´s, die aufgrund ihres mechanischen Aufbaus an die hohe Anzahl der IOPS von SSD´s nicht annähernd herankommen können.

    Soeben habe ich mal auf meinem VPS mit der Produktbezeichnung VPS 2000 G8 Plus (mit 1,5 TB SSD-Performance (Optane™ Cache)) für 14,49 Euro einen IO-Test gemacht, der da wie folgt aussieht:

    Da ich meinen VPS nur als Storage Server nutze, bin ich mit den gemessenen IOPS (read-min. = 64, write-min. = 21) doch recht zufrieden.

    Ja, das vermute ich stark.

    Es sind vermutlich die Datenbankzugriffe, die das Ganze so verlangsamen.

    Nicht nur Datenbankzugriffe verhalten sich auf HDD´s aufgrund ihrer sehr vielen parallelen Zugriffen lesend auf HDD´s schlechter als auf SSD´s, sondern du darfst auch nicht vergessen, dass du dir das Plattensystem auf dem Wirt mit dessen Gesamtleistung bezogen auch auf die IOPS mit einer unbestimmten Anzahl von weiteren Kunden teilst.

    Benutzt von etwas über 1000 Leuten. Das lief sehr flott und Problemlos.


    Seit der Übertragung ruckelt und zickt das Mattermost SEHR oft rum. Die Caches brauchen zum Teil mehr als 10 Sekunden zum Laden und oft braucht ein 400kB jpg 8-10 Sekunden bis es zum Client übertragen ist!


    Daß sich an der Installation NICHTS verändert hat, da ich ja vom RS auf den VPS geklont habe, ist denen ja egal. Eine Unmöglichkeit, dass der Kunde dem Lieferanten einen Fehler akribisch NACHWEISEN muss, damit dieser sich überhaupt mal mit dem Problem befasst.

    Um mich vorsichtig auszudrücken: Du vergleichst leider Äpfel (SSD´s) mit Birnen (HDD´s). Denn dein vorheriger RS hatte im Gegensatz zum jetzigen VPS SSD´s im RAID 10 Verbund und dein jetziger VPS hat trotz SSD Performance nur HDD´s, die eventuell höchstens im RAID 10 Verbund ca. 300 OIPS beim lesen schaffen und bei ca. 1000 Teilnehmern ihre Grenze schon lange ausgeschöpft haben.