Posts by tab

    Ich installiere sonst nie Images, deshalb frage ich. :)

    Da verpasst du definitiv was. Ich glaube die einzigen zwei Server, die ich mit Debian Minimal Image installiert habe und die wirklich identisch waren, das waren die zwei ARM-Server, die ich am gleichen Tag bestellt und installiert habe. Super wie man im Lauf der Zeit verschiedene Möglichkeiten auf diese Weise gezeigt bekommt, wie man z.B. Namensauflösung konfiguriert. Mal systemd-resolved, mal direkt in der /etc/resolv.conf, mal mit immutable Flag, weil die Datei bei jedem Neustart neu geschrieben wird, mal ohne, weil das eben nicht passiert. Mal sind die dnsutils mit dabei, mal nicht. Wird nie langweilig. ^^

    Die Hoffnung stirbt zuletzt ;) . Möglich ist es. Klar, wenn auf einem Wirtssystem zuviel Last ist, dann werden eben ein oder mehrere Server woanders hingeschoben, wo die Auslastung nicht so hoch ist. Natürlich gibt es auch andere Gründe, z.B. defekte Hardware oder sonstige Probleme des Wirtssystems. Oder der Lehrling muss lernen, wie man Server verschiebt :D .

    Folgende Änderungen habe ich iin der .user.ini vorgenommen, allerdings ohne Erfolg:

    Code
    memory_limit = 512M
    max_execution_time = 3600

    Was kann ich hier noch tun?


    php -i | grep memory_limit zeigt mir weiterhin ein CLI-Limit von 128M an. Ich bekomme das mit der Änderung in der .user.ini anscheinend nicht erhöht!?

    Wie lange hast du nach derEintragung gewartet, bevor du das memory_limit abgefragt hast? Die .user.ini wirkt sich im Gegensatz zu einer .htaccess nicht sofort aus. Ich denke 5 Minuten kann es maximal dauern, bis die wieder eingelesen wird. Diese Zeitspanne ist aber auch aus der phpinfo ersichtlich.

    Vor vielen Jahren war ich da mal. Das war damals ein sehr guter Anbieter mit Top Support. Telefonisch zwar nur im Notfall, aber außer Admins hatten die keine Mitarbeiter. Also egal, wen man erwischt hat, man durfte davon ausgehen, dass der sich besser auskennt als man selbst. Auch Anfragen per Mail wurden naturgemäß von den selben Leuten beantwortet. Die haben immer schnell geantwortet und auch wirklich bei konkreten Problemen geholfen und sogar Skripte zur Verfügung gestellt, wenn man selbst etwas nicht hinbekommen hat. Wie es heute aussieht kann ich aber nicht sagen. Die sind sicher mittlerweile auch gewachsen und so ein Support-Niveau ist sicher schwer zu halten. Der Webspace bot auch sehr viele Möglichkeiten, allerdings alles rein auf der Kommandozeile, kein Plesk oder ähnliches Zeug. Für viele Funktionen, die hier z.B. per Plesk einzustellen sind, hatten sie Befehle implementiert.


    Für mich etwas problematisch war damals, dass man für Domains oder Subdomains die document root nicht einstellen konnte. Bzw nur über einen Workaround, der halt nicht in jedem Fall funktioniert hat. Aber war schon schön, da waren Dinge möglich, die ich heute nur auf dem vServer machen kann.

    Du musst entweder open_basedir auf die andere Variante mit WEBSPACE_ROOT umstellen oder deine datadirectory innerhalb der document root der Domain haben, also z.B. das Nextcloud Standardverzeichnis belassen. Sonst kann PHP nicht auf die Daten zugreifen.

    Well, you're not alone at least. Same here. I rarely ever look in there, so I checked a minute ago after reading your post. Obviously, something is broken. Did you open a support ticket already? I'll have to do this later this evening, because I'm off in 5 minutes.

    Gibt's nicht, und mir geht's nicht um den Steal, sondern dass es halt langsam war (der Steal ist nur gut geeignet zum Messen). Und wie gesagt, im Großen und Ganzen bin ich ja zufrieden mit dem Preis/Leistungs-Verhältnis.


    EDIT: Präziser, dass es halt gefühlt immer langsam ist, nicht nur manchmal.

    Da ich die genaue Situation bezüglich ARM Servern bei netcup als Kunde nicht kenne, kann ich die Ursachen der gefühlten (und tatsächlichen) Langsamkeit nur anhand von Indizien vermuten. Und diese Vermutung geht in Richtung Auslastung der Nodes. Dass es schon längere Zeit keine neuen VPS ARM mehr zu geben scheint (derzeit ausverkauft) ist ein Indiz dafür. Die Nodes sind voll und man will keine weiteren ARM-Server mehr reinquetschen, selbst wenn es nur VPS sind. Das man nicht will ist lobenswert, ändert aber nichts daran, dass die Nodes eben voll sind und naturgemäß bei VPS auch überbucht. Wie stark man überbucht entscheidet letztlich der Anbieter, hier netcup. Kann man als Kunde auch nicht viel dagegen machen, sofern nicht in der Produktbeschreibung oder in den AGB etwas konkret versprochen wird, was dem aus Sicht des Anbieters noch akzeptablen Steal widerspricht. Mal abgesehen von der Abstimmung mit den Füßen.


    Die vCores der VPS ARM waren allerdings seit Anbeginn in GB6 etwas weniger performant als die damaligen VPS x86, haben aber dafür mehr vCores. Die VPS ARM sind auf dem Leistungsstand zur Zeit der Einführung geblieben, der Steal hat etwas zugenommen. Die VPS x86 sind allerdings mittlerweile um einiges performanter geworden, obwohl man auch hier nach einiger Zeit sieht, wie die Performance runtergeht. Aber eben auf deutlich höherem Niveau. Wahrscheinlich auch hier durch stärkere Auslastung der Nodes, die anfangs meist noch nicht voll belegt sind. Und auch durch Nodes mit älteren Prozessoren.


    Die zeitweise auftretenden Paketverluste ärgern mich auch, weil das früher (tm) nicht so war. Ob so etwas auch von Überlastung kommen kann oder zwingend auf defekte Kabel, Switches oder sonstige Komponenten hindeutet, weiss ich nicht. Da kenne ich mich zuwenig mit aus. Für normal halte ich es aber jedenfalls nicht. Bei meinen Servern bei Strota und I0N0S sehe ich jedenfalls keine Paketverluste. Bei mir gibt es (bei netcup) oft stunden- oder tagelang gar keine Verluste, dann aber plötzlich doch wieder welche. Vor einiger Zeit dachte ich schon, die Paketverluste (drops) seien behoben, sehe aber in Munin schon länger wieder, dass sie noch da sind. Abhängig vom Server (oder vom Netzwerksegment?) mehr oder weniger häufig oder gar nicht. Das betrifft auch mein Cloud VLAN.

    Die mail-Subdomain verweist im netcup Webhosting per Default auf den MX. Webmail ist dort wohl nicht vorgesehen, nur zentral auf webmail01.webhosting.systems.

    Das ist auch eine andere IP als dein MX /SMTP-Server im Webhosting-Paket. Du kannst Webmail auch über webmail.meine-domain.de aufrufen, aber die Verbindung ist dann nicht sicher, nur http. Da du auf dem Webmail-Server dafür kein Zertikat installieren kannst, geht es eben nicht gesichert über https. Du kannst natürlich in deinem Hosting-Paket eine eigene Webmail-Software installieren, dafür kannst du dann auch ein Zertifikat erstellen lassen.

    Ich hab hier einen VPS ARM 3000, und eigentlich[tm] bin ich mit dem auch ganz zufrieden, ich mach da normalerweise wenig CPU-intensives Zeug drauf. Aber jedes Mal wenn ich dann doch CPU-Leistung brauche, habe ich zwischen 30 und 40% Steal. Jetzt ist mir schon klar, dass ich halt nicht für dedizierte Kerne bezahle, und wenn das nur manchmal wäre, wäre es mir auch egal, aber es passiert halt echt ständig.


    Meint ihr den Support interessiert sowas?


    EDIT: Ich hab daheim einen RK3588 (ungekühlt), und der outperformed den VPS 😂

    30-40% Steal wird den Support wohl eher nicht interessieren bei einem VPS. Im allerbesten Fall verschieben sie dich aus Kulanz auf einen anderen Node. Ob es dort dann besser ist? Vielleicht. Dafür hockt dann halt ein anderer Kunde auf deinem Node. Bei einem RS hättest du da andere Argumente.


    Ich hatte bisher noch nie einen Server, den mein Heimrechner nicht deutlich outperformed hätte. Wenn das meine Ansprüche an einen Server wären, würde ich mir einen dedizierten Server mieten. Den dann mit einem besseren AMD Ryzen als ihn mein Heimrechner hat und mit einer dedizierten Grafikkarte. Da meine Anwendungszwecke (Webhosting, ein bisschen Mail) solche Leistungen nicht brauchen, kann ich mit vergleichsweise wenig Performance gut leben. Trotzdem vergleiche ich natürlich, was ich für mein Geld bekomme. Bekomme ich anderswo die von mir benötigte Leistung für deutlich weniger Geld, dann denke ich über einen Umzug nach.


    Auch mein vServer von I0N0S ist sicher nett - für einen vServer. Und übertrifft bei GB 6 die ARM VPS hier um mindestens einen Faktor 2,5. Egal ob Single Core oder Multi-Core (auch mit weniger Cores). Aber an meinen Desktop-PC kommt er nicht ran. Dafür hat er aber eine dedizierte IPv4 und ein IPv6 Subnetz und ist so angebunden, dass manchmal auch 8-9 GBit/s erreicht werden, je nach Gegenstellle und den Aktivitäten der Nachbarn auf dem Node. Würde ich das zuhause haben wollen, dann müsste ich wahrscheinlich dreistellige Monatsbeträge allein für die Anbindung zahlen. Dazu Strom, etwaige Reparaturen usw. Und so betrachtet ist er für seinen Preis ein echtes Schnäppchen.

    Das kann ich Dir jetzt auch nicht sagen, merkwürdig. Versuche doch mal, die IP-Adresse als ip4:188.68.63.166 direkt bei deinem SPF-Record mit aufzunehmen, vielleicht schaut Google nicht tief genug in die SPF-Records rein.

    Das scheint mir jedenfalls ein guter Ansatz zur Analyse des Problems zu sein. Die IP - wenn es denn immer die selbe ist - vor die includes setzen und schauen ob sie dann als berechtigt azeptiert wird. Ich bin mir jetzt nicht sicher, welche Einschränkungen SPF im Einzelnen hat. Also wie tief ein auswertendes Programm zwingend zu suchen hat und wieviele DNS-Abfragen zur Auswertung des SPF-Records zwingend zu machen sind.


    Mit MS hatte ich ein Problem damit, dass MS den Timeout für die DNS-Abfragen sehr niedrig setzt. Gleichzeitig wird die Abfrage wohl auch noch aus den USA gemacht, was die Sache nicht gerade beschleunigt. Bei einem hohen Prozentsatz der Mails stand dann im Report auch ein fail drin. Allerdings stand im MS-Report dann unten bei den AUTH_RESULTS nicht ebenso "fail", sondern "temperr". Wie Google das handhabt weiss ich nicht mehr, da kam das auch sehr selten oder gar nicht vor. Eventuell bleiben die dann auch einfach beim "fail".


    Damals (tm) wurde die Mail über die grüne Mailbox aus Berlin verschickt - mit dem entsprechenden include im SPF Text-Record. Das hat dann wohl bei der Abfrage gelegentlich zu lange gedauert. Seit die Mail wieder direkt vom Mailserver des Webhosting-Pakets verschickt wird kommt das nicht mehr vor. Das war nur ein include, du hast zwei.

    Ja, aber warum ist dann der Text ein anderer?

    Und wer sagt an der Stelle, dass es NICHT für alle Domains gilt?

    Ich, sonst würde bei mir nichts mehr funktionieren. Auch wenn man es vielleicht missverstehen könnte, es ist jedenfalls nicht so. Würde auch keinerlei Sinn machen, für alle Domains die selben Nameserver benutzen zu müssen. Da wäre man ja fast gezwungen, mindestens 5-6 Kundenaccounts zu haben, um allen Domains die jeweils passenden Nameserver eintragen zu können.

    Ich mache da bei MS auch nichts mehr. Wie käme ich dazu? Wer keine Mail will, der hat schon. Irgendwann, wenn ich in der richtigen Laune dazu bin, sperre ich mal alle MS-Netze und lasse alle Mails von deren Servern abweisen, mit einer passend abgewandelten Kopie iher eigenen Begründung. Habe zwar einige Bekannte mit MS Freemail, aber da kann ich notfalls andere Adressen benutzen. Die dürfen sich dann aber auch gern an MS wenden wegen der von mir konfigurierten Sperrung. Und nach der 5. Mail antworte ich dann sogar selbst. :D :D :evil:

    Naja, Piko wäre grenzwertig, da würde die Installation ohne 1-2 GB Swap nicht durchlaufen. Ich habs auf einem VC1-1 drauf, aber nur um mal auszutesten ob es überhaupt möglich ist. Nicht um es ernsthaft zu nutzen. Immerhin, eine Contao-Demo läuft recht flüssig drauf, den Virenscanner für Mails würde ich mich aber nicht trauen zu aktivieren. Ich habe vorsichtshalber erst gar kein Postfach erstellt auf dem Kleinen.


    Die memory usage in Munin sieht dann so aus: