Posts by Hamsterbacke

    Es gab gerade Neustarts in der nclabs-Umgebung – Vielleicht ein Notfallupgrade der Hosts? Der Wiener G11 läuft hier ruhig weiter …

    Danke für die schnelle Rückmeldung!


    Ja hat mir gerade einen kompletten Schrecken eingejagt weil mein Loadbalancer gefühlt bei allem Failure angezeigt hat.

    Ich wurde jetzt mittlerweile auch schriftlich per Email über die Ausfälle benachrichtigt.


    Wäre wirklich teuer für mich ausgegangen hätte ich das erst noch später bemerkt 😵‍💫

    Ob sich was daran ändern wird oder nicht ich will letztlich auch nur den Gedankengang dahinter verstehen. Das bereitet einem schon wirklich Kopfzerbrechen.

    Halt in aller Ernsthaftigkeit das ist schon echt maximal absurd. Mich würde es auch interessieren wie jeder in dem Augenblick reagiert wenn er liest das die Server stundenbasiert sind und keine 3 Sekunden später rausfindet das die Grundgebühr höher ausfällt als der Server selbst. Häääää :?::?::?::?:

    Da hat die stundenbasierte Abrechnung mal absolut gar keine Darseinsberechtigung. Auf welche Zielgruppe zielt das bitte schön ab?


    Entweder haben die sich zu viel dabei gedacht oder gar nix. :D

    Sehr gewagt von dir als Laie in einem deutschen Forum nach Hilfe zu fragen.

    Mehr als eine öffentliche Hinrichtung kannst du in der typisch deutschen Forenkultur im Normalfall nicht erwarten :D


    Anyways, ein Ratschlag von mir was solche Fragen angeht, zukünftig einfach auf ChatGPT o.Ä. zurück zu greifen. Die sind relativ gut bei genau solchen Problemstellungen und außerdem geben sie dir gute Anhaltspunkte wo du weiter nachforschen / dranschrauben musst. Außerdem wirst du da zügig geholfen und das auch noch passend zu deiner Situation und all das ohne dich bei irgendwem rechtfertigen zu müssen ^^


    Fehler

    Korrigierte docker-compose.yml u. nginx.conf

    Quote
    1. Erstelle ein Projektverzeichnis für deine Docker-Umgebung.
    2. Platziere die korrigierte docker-compose.yml und nginx.conf in diesem Verzeichnis.
    3. Erstelle die Dateien application.yml und application.cnf im selben Verzeichnis. Diese sollten die spezifischen Konfigurationen für deine Anwendung enthalten.
    4. Erstelle die Unterverzeichnisse certbot/conf und certbot/www. Diese werden für die Let's Encrypt-Zertifikate benötigt.
    5. Generiere eine dhparams.pem-Datei mit folgendem Befehl:
    6. Code
      openssl dhparam -out dhparams.pem 2048
    7. Ersetze in beiden Dateien (docker-compose.yml und nginx.conf) alle Vorkommen von domain.tld durch deine tatsächliche Domain.
    8. Stelle sicher, dass die DNS-Einstellungen für deine Domain korrekt konfiguriert sind und auf den Server zeigen, auf dem du diese Docker-Umgebung einrichtest.
    9. Starte die Docker-Container mit:
      Code
      docker-compose up -d@@@WCF_PRE_LINEBREAK@@@@@@WCF_PRE_LINEBREAK@@@
    10. Warte einige Minuten, bis die initiale Zertifikatsgenerierung abgeschlossen ist.
    11. Starte den Nginx-Container neu, um die neuen Zertifikate zu laden:
      Code
      docker-compose restart nginx@@@WCF_PRE_LINEBREAK@@@

    Beachte dabei folgende Punkte:

    • Stelle sicher, dass die Dateiberechtigungen korrekt gesetzt sind.
    • Konfiguriere deine Firewall so, dass die Ports 80 und 443 erreichbar sind.
    • Die Zertifikatserneuerung erfolgt automatisch, aber behalte sie im Auge.
    • Sichere regelmäßig das certbot/conf-Verzeichnis.
    • Passe bei Bedarf die Rate-Limits und andere Einstellungen in der Nginx-Konfiguration an deine spezifischen Anforderungen an.

    Ich hab den Schritt einfach schon mal für dich gemacht. Habs nur kurz überflogen, sah aber auf dem ersten Blick schon richtig aus. Das sollte eine solide Grundlage bilden womit du dein Problem besser eingrenzen kannst oder auf es auf den Grund zu gehen.

    Hol dir eine Subscription für irgendein GPT und wenn du noch Fragen hast würde ich Foren oder Communitys empfehlen die sich genau in dem Gebiet spezialisieren.

    Vorzugsweise englischsprachige Communitys :S

    Ja das wollte ich noch anmerken. Unter Umständen kann es auch sein das vereinzelte - in den meisten Fällen amerikanische - Netzwerke nicht augeschlossen sind, weil die IP Subnetze nicht immer tagesaktuell sind oder anders oder falsch hinterlegt sind.


    z.B. europäischer Hosting Anbieter dessen ASN auch für die Server in der USA verwendet werden

    • Does the 2.5 Gbps virtual network card actually amounts to 2.5 Gbps of Internet bandwith ?
      • If yes, is it dedicated ?

    I'm getting the full 2.5Gbps basically 24/7. No matter what time, whether it be day time or at night. 8)

    As long as you stay within your bandwith limit.

    Ja die Rechnung stimmt schon.

    125mb x 60s = 7,5GB pro Minute

    7,5gb x 60m = 450GB pro Stunde

    450gb x 24h = 10,8TB pro Tag


    EDIT:

    In der Beschreibung steht es echt drin =O . Hab mal zugeschlagen :P

    Schon wieder Wien, sehr schade.

    Beide Server haben die gleiche Produktnummer wie am Tag davor. Wenn du also beim ersten Mal Wien bekommen hast dann wirst du fortan für diese Produktnummer immer Wien bekommen. Das wird sich dann auch nicht mehr ändern.

    Mir ist vorhin um 21:30 Uhr beim Konfiguieren des Servers irgendwie aufgefallen das die Performance von meinem Server stark angestiegen ist. Das war gefühlt unmittelbar nachdem ich einige Tweaks am Server vorgenommen habe, aber wie dadurch ganze 20% Leistung zustande kamen konnte ich mir nicht erklären.

    Wie ihr vielleicht aus meinem bisherigen Post entnehmen könnt, war die Leistung für eine Zeit lang sehr stark eingebrochen und anscheinend durch Miner beeinträchtigt. Über die Tage hat sich die request per second von meiner Applikation bei 1000 eingependelt und heute Nachmittag mit Tendenz zur 1100. Um 21:30 Uhr aus dem nichts waren es dann plötzlich 1400 Anfragen. Etwas später dann 1500. Mittlerweile ist es fast bei 1800 angelangt?!?Screenshot 2024-06-06 at 03.09.46@2x.png


    Spiegelt sich dementsprechend im YABS wider:

    Die Werte werden über Zeit zunehmend besser, aber mal schauen wie lange das so noch anhält. Zwar einerseits schön anzusehen, andererseits auch irgendwie erschreckend zu sehen wie stark die Werte schwanken können, obwohl von dedizierten Ressourcen die Rede ist. Im LowEndTalk hat ein Anbieter selber Tests durchgeführt mit einer "EPYC 7702" (CPU von der vorherigen Generation G9.5) um dieses Phänomen auf den Grund zu gehen:

    Ich schätze auf meiner Node ist wohl ein bisschen Platz frei geworden :P

    Danke für die Aufklärung! Ich kenne es tatsächlich auch genau so wie du es beschrieben hattest, aber ich dachte ich frage lieber nochmal nach ob das bei Netcup eventuell irgendwie anders gehandhabt wird und man da potenziell etwas beachten sollte. Ich war eigentlich nur verwirrt weil da "Unverschlüsseltes VLan" stand, da Netzwerke an sich ja unverschlüsselt sind, aber das war mehr eine Gegenüberstellung zur Wireguard.

    Vorteil:

    • MTU 1500
    • Verbraucht keinen Traffic
    • Zweiter Host benötigt kein Netz
    • Einfaches Firewalling
    • L2
    • Benötigt keine Rechenleistung

    Nachteil:

    • Unverschlüsseltes VXLAN
    • Nur innerhalb eines Standortes möglich

    Sorry der Nachfrage aber wie ist das genau gemeint mit "Unverschlüsseltes VXLAN"? Im Vergleich zu Wireguard?

    Ich habe VLan bis dato noch nicht wirklich benutzt, aber ich gehe mal davon aus das sonst keiner im gleichen Netzwerk ist außer ich. Könnte abgesehen von Netcup jemand sonst das Netzwerk mitlesen wenn ich zwei Server mithilfe von VLan zusammenschalte?


    Vielen Dank im Voraus

    RS 2000 G11 Nürnberg


    Bevor Neustart


    Nach Neustart über SCP


    Mein vorheriger Stresstest:

    JETZT

    ----------------------------------------

    Success rate: 100.00%

    Total: 30.0051 secs

    Slowest: 0.5791 secs

    Fastest: 0.0167 secs

    Average: 0.0789 secs

    Requests/sec: 1268.5504


    Total data: 12.49 MiB

    Size/request: 345 B

    Size/sec: 426.28 KiB

    ----------------------------------------


    Wild. Es ist jetzt nicht nur besser sondern jetzt auch gleich auf mit der Konkurrenz bei gleicher vCore Anzahl. Es handelt sich hierbei um die günstigste Operation in diesem Kontext. Bei der teureren Operation sieht man ebenfalls eine ordentliche Leistungssteigerung!


    DAVOR

    ----------------------------------------

    Success rate: 100.00%

    Total: 30.0051 secs

    Slowest: 0.8162 secs

    Fastest: 0.0500 secs

    Average: 0.3394 secs

    Requests/sec: 295.1160


    Total data: 4.63 MiB

    Size/request: 555 B

    Size/sec: 158.14 KiB

    ----------------------------------------


    JETZT

    ----------------------------------------

    Success rate: 100.00%

    Total: 30.0061 secs

    Slowest: 1.1426 secs

    Fastest: 0.0332 secs

    Average: 0.1765 secs

    Requests/sec: 566.9517


    Total data: 8.95 MiB

    Size/request: 555 B

    Size/sec: 305.53 KiB

    ----------------------------------------

    Hier ist es auch fast gleich auf wie bei der Konkurrenz. Wobei aber erwähnt werden muss, dass es am Anfang vom Stresstest mit der Konkurrenz mithalten kann mit 680rps und über Zeit auf unter 480rps fällt. Das ist ein bisschen komisch. Ich werde das mal im Auge behalten.


    Alles in allem eine ordentliche Steigerung festzustellen. Ein Lob geht an die Techniker raus :saint:

    Hey Folks General question, The server performance issue is only limited to RS 1000 G11 or RS 2000 G11 are impacted as well. I would really appreciate if someone can give a feedback, i am having a really bad time with some of my woocommerce site which are very slow to the point my customers are considering to move providers.

    If RS 2000 is not impacted i will simply upgrade to resolve this issue.

    Take a look at my recent yabs benchmark of the RS 2000 G11 Nuremberg here. You may further take a look at all the benchmarks done on Netcup servers here.

    So far the entire RS G11 line up seems to be affected. For example the RS 16000 G11 here has a whopping 3493 in multi core performance.

    Das ist die schlüssigste Erklärung bisher und würde weitaus mehr Sinn machen als das Argument mit den Benchmarks. Es wäre sehr besorgniserregend gewesen wenn vereinzelte Benchmarks mehrere Nodes durchgängig in die Knie zwingen würden. Naja, die Benchmarks on top in dieser Situation haben sicherlich auch nicht geholfen :P


    Ich bin mir nicht mehr ganz sicher, aber ich dachte Mining wäre bei Netcup verboten oder war das bei der Konkurrenz? Und ja deinen Namen kenne ich auch vom LowEndTalk :D

    NACHTS

    HEUTE MORGEN

    Ein Benchmark nachts und in der früh bei der RS 2000 G11. Auch nachts deutscher Zeit wo nicht viel los sein sollte sind die Werte miserabel.

    anfangen und am Benchmarken sind, sieht das io halt erstmal nicht so gut aus.

    Das scheint echt ein Totschlagargument zu sein hier. Haben vermutlich alle Brückentag gemacht um länger aufzubleiben damit sie die Server zu Tode benchmarken können.


    Zumindest sind die Werte jetzt stabil. 8 dedizierte vCores entsprechen hier also

    Code
    Geekbench 6 Benchmark Test:
    ---------------------------------
    Test            | Value
                    |
    Single Core     | 920
    Multi Core      | 2571
    Full Test       | https://browser.geekbench.com/v6/cpu/6330953

    Requests/sec: 1021.5973


    Ich würde nicht im Traum drauf kommen einem RS2000, geschweige denn einem ETH0 so etwas anzutun :D (Jedenfalls nicht als normalem Homepage server)

    Hä, was ist das für Argument? 😂

    Willst du damit andeuten das Netcup Server nur für Spielereien sind oder was?


    Es ist keine Homepage sondern eine eigene entwickelte API Server die dann im Verbund zusammenarbeiten sollen jeder mit eigenen Tasks für hohe Redundanz und Höhe Verfügbarkeit. Da mietet man sich nicht den stärksten Server an sondern unterteilt die Aufgaben auf mehrere kleine Server auf.


    Netcup wirbt mit 99,9 Prozent Verfügbarkeit, dedizierte Ressourcen und NVMe. Für mein Use Case wäre das optimal würde das stimmen womit Netcup wirbt. Ich könnte die Server auslasten ohne die Nachbarn zu stören.


    Das ist ganz normale Prozedere wenn es um horizontale Skalierung geht. Es geht hier also nicht um WordPress oder whatever 😜 was man man auch anhand vom Traffic Verbraucht sehen kann.

    Total data: 12.50 MiB

    So isses wahrscheinlich, und naja.. ich sehe das dann lockerer weil Preis/Leistung stimmen muss.


    Vserver/Rootserver zu benchmarken sehe ich da eher als Nutzlos.

    Wie gedenkst du soll man das Preis-Leistungsverhältnis bestimmen wenn man es nicht benchmarked? Es ist doch komplett wayne was der Anbieter auf der Produktseite angibt wie man hier schön daran erkennen kann.

    Wenn 100 Freaks ihre neuen Server 3 mal am tag benchmarken ist bestimmt auch nicht so toll für die harmonisierte Verteilung.

    Und selbst wenn wieso hat das was der Nachbar auf seinen Server tut einen so großen Einfluss auf die Performance von meinem Server wenn der Anbieter dedizierte Ressourcen verspricht. Das geht so nicht! Wir dürfen sowas doch nicht normalisieren. Die meisten anderen Anbieter haben keine 12 Monate Verträge deshalb haben die Benchmarks durchaus ihre Darseinsberechtigung um zu sehen auf was man sich einlässt.


    Bei mir war nun mal nicht nur ein Benchmark sondern ein Stresstest im Real Life Szenario und das kann sich auf jeden fall nicht sehen lassen.