Beiträge von TBT

    Erstmal vorweg, langfristig sollte die Node.js-App auch in der Lage sein, Mails zu senden. Hab ich zwar in PHP auf normalen Webservern schon oft genug gemacht, aber wie genau es in Node funktioniert, habe ich mir tatsächlich noch nicht angeschaut. Das wird erst später relevant. Wäre aber auch gut, wenn man über die gleiche Domain manuell Mails verschicken kann. Daher bin ich davon ausgegangen, dass es Sinn macht, den Mailserver auf dem gleichen Server zu haben.

    Das ist imho nicht nötig, da auch die Node.js App mit Benutzeranmeldung mit dem SMTP Server auf der gleichen Kiste kommunizieren müsste. Ob Du da nun die Zugangsdaten für einen anderen Server angibst oder für einen lokalen Container, ist erst mal wurst.


    Ein Vorteil von Kompartimentierung ist, dass Du Dir nicht beides zerschießt, wenn Du ein Problem mit einem hast. Es geht definitiv, dass man Mailserver und Node.js auf einen Server packen kann, allerdings braucht man dafür schon einiges an Erfahrung im Umgang mit Docker. Und diese fehlt Dir anscheinend bisher. Daher wäre es für beide Anwendungen erst einmal einfacher, diese separat auf unterschiedlichen VServern aufzubauen. Ein Vorteil dieser Herangehensweise auch noch: sollte eine der beiden Anwendungen schneller wachsen als die andere, kannst Du einen der beiden Server skalieren.

    Zitat

    +a +mx +a:mail.example.com

    Hier soll natürlich nicht mail.example.com stehen, sonder mail.meinedomain.de . Allerdings sind die beiden Einträge +mx +a:mail.meinedomain.de in diesem Fall ohnehin redundant.

    aber das mit der namensauflösung wusst ich nicht - ist bei größeren sachen wohl bequemer einfach nur den namen des containers einzugeben :D

    Der namensbasierte Weg ist imho sicherer, da ist gar keine Öffnung von Ports nach außen nötig, die Container können sich intern beliebig und namensbasiert adressiert unterhalten als wären sie in einem geschützten LAN, das von außen nicht erreichbar ist. Das einzige was man dafür machen muss, ist alle Container (ggfalls zusätzlich) in ein Netzwerk mit dem Reverse Proxy zu packen.

    Es ist für mich natürlich vollkommen klar, dass man von einem Massenhoster, wie Netcup, nicht erwarten kann. dass sie ihre Server auf moderne LTS-Kernels updaten.

    Wer mit Proxmox eigene Virtualisierung betreiben will, nimmt echtes Blech. Die Produkte von Netcup sind nicht für Deinen beabsichtigten Einsatzzweck geeignet. Nested Virtualization ist Käse. Ende des Themas.

    Meine Empfehlung: insbesondere da Du unerfahren bist: mach ausschließlich Mailcow auf einen RS/VServer und Node.JS auf einen anderen Server. Dann reicht es, der wirklich leichten Installationsanleitung auf https://docs.mailcow.email/i_u_m/i_u_m_install/ zu folgen.


    Du brauchst eigentlich kein gekauftes Zertifikat.


    Gerade für unerfahrene Admins ist es nicht dankbar bis gefährlich (Stichwort Open Relay) einen Mailserver zu betreiben. Du solltest Dir das dringend nochmal überlegen.

    Wenn Du sicher gehen willst, dass der Windows Server übers Internet nicht erreichbar ist, kannst Du auch dessen Internet Netzwerkadapter einfach deaktivieren (nicht über RDP, sondern über die VNC SCP GUI Anzeige) und nur den VLAN Netzwerkadapter aktiviert lassen. Dann KANN gar nichts mehr versehentlich ins Internet und Du könntest die Windows Firewall deutlich relaxter konfigurieren, da davor ja noch die pf/OPNsense hängt.


    Auch an dieser Stelle sei wieder der Hinweis auf https://www.zerotier.com/ zu geben, das ein controllerbasiertes VPN ist und mit Situationen wie dieser sehr sehr gut zurechtkommen würde, sogar ohne Portweiterleitung oder Firewall-VPN.

    Macht es etwas wenn ich UEFI deaktiviere? Sonst kann ich ja keinen Snapshot anlegen. Ich dachte nur Win10 braucht das.

    UEFI wird in erster Linie für Windows Server Installationen benötigt, die >2TB Massenspeicher haben, da hier von MBR auf GPT gewechselt werden muss und Windows nur mit UEFI von GPT booten kann. Linux Variationen haben diese Einschränkung nicht.


    Windows 10 ist nicht für den Betrieb auf Servern lizensiert.

    Die Begrenzung von externen Domains bei Netcup ist unnötig und künstlich. Aus diesem Grund kann ich die Webhostingangebote von NC nicht gut finden und bin diesbezüglich bei einem Konkurrenten, der schlicht unbegrenzt viele externe Domains bei allen Paketen anbietet.


    Meine Domains ordere ich ausschließlich seit 20 Jahren bei Schlund-----Tech.

    aber die Unsitte, dass man die Preise erhöht und meint, das gelte als akzeptiert, wenn der Kunde nicht widerspricht, wurde den Banken weggeklagt. Die müssen die unrechtmäßigen Erhöhungen zurückzahlen! Darauf wurde hier schon hingewiesen und trotzdem berücksichtigt das Anschreiben das nicht: Ein Fehler mit Ansage. Muss das jetzt für jede Branche einzeln durch die Instanzen gebracht werden?

    Du hast durch Deinen Vertragsabschluß bei Buchung des Angebots mit den AGBs ( https://www.netcup.de/bestellen/agb.php ) akzeptiert:

    Zitat

    netcup behält sich daher das Recht vor, die Preise zu Beginn eines neuen Abrechnungszeitraums mit einer Änderungsfrist von sechs Wochen zu ändern. Der Kunde ist zur außerordentlichen Kündigung zum Zeitpunkt des Wirksamwerdens der Preisänderung berechtigt. Macht der Kunde hiervon nicht innerhalb von vier Wochen nach Zugang der Mitteilung Gebrauch, gilt die Änderung als genehmigt; hierauf wird netcup den Kunden ausdrücklich hinweisen.

    Ich denke, dass bei den Modalitäten und mit der Mail diese Punkte berücksichtigt sind.

    Meine Frage war, ob ich die Angelegenheit zu eng sehe

    Ja.

    Ich weiß nicht, wie ich die "Reaktionen"-Smiley deuten soll. Wenn es heißen soll "Schlaf mal drüber"

    Schlaf mal drüber. Und dass wohl mehrere Smiley Geber Dir so nicht zustimmen.


    Ansonsten ist die Kommunikation nicht so einfach machbar wie von Dir gewünscht/vorgeschlagen, da sich die Laufzeiten aller Kund*innen deutlich unterscheiden. Kernmessages: die Preiserhöhung wirkt sich erst auf die nächste Abrechnungsperiode aus, man hat deswegen Sonderkündigungsrecht.

    Ein Beispiel wäre bereits das Wort "Preisanpassung", dass bereits ein Euphemismus (also ein rethorisches Stilmittel) für "Preiserhöhung" ist.

    Eine Preiserhöhung impliziert für mich "mehr Gewinn für den Anbieter". Das ist aber hier vermutlich nicht der Fall, sondern es handelt sich um eine "Preiserhöhung", die gestiegene Energiekosten und damit gesunkenen Gewinn ausgleicht / ausgleichen muss.

    Warum? Vielleicht habe ich es überlesen, aber die beiden gehören doch nicht zusammen. Und dann würde ich beide schon aus Prinzip in verschiedene Netzwerke legen.

    Weil man sie sonst nicht mit Namen in NPM adressieren kann. Alle Container, die über NPM geproxied werden sollen, sollten in einem Netzwerk mit diesem sein. Im gleichen Netzwerk sein, heißt nicht im gleichen Container oder auch nur in der gleichen docker-compose sein.

    Moderatoren : Anscheinend treten IO Hänger und reduzierte Übertragungsraten bei mehreren Nutzern, sicherlich unabhängig von der individuellen Systemkonfiguration (bei mir z.B. Windows, bei anderen sicherlich Linux) auf. Wäre das etwas, was die Technik mal generell überprüfen könnte? Evtl ein Problem der ausgerollten KVM Version?


    Laut https://bugzilla.kernel.org/show_bug.cgi?id=199727 ist das schon länger, aber auch immer noch (2022) ein Problem mit KVM, manche Lösungsvorschläge werden in diesem Thread genannt, die aber nur von Netcup umgesetzt werden könnten. Hier wird zwar Proxmox als Basis verwendet (keine Ahnung auf was KVM bei Netcup läuft), aber da bei beidem KVM drunter liegt, dürften die Probleme übertragbar sein.

    Der Thread bestätigt auch, dass es völlig wumpe ist, ob es sich um SCSI, VirtIO, Windows, Linux, wasweissich handelt, sondern ein KVM Ding ist. Sicherlich ist VirtIO etwas performanter, diese Hänger dürften aber auch mit SCSI nicht vorkommen.


    Weitere Quelle:

    https://forum.proxmox.com/threads/high-io-wait-during-backups-after-upgrading-to-proxmox-7.113790/

    Ich glaube nicht, dass das mit SCSI vs VirtIO zu tun hat, da das auch schon mit SCSI deutlich besser bzw. in dieser Art nicht vorhanden war und erst in letzter Zeit so merklich ist. Generell scheint die SSD Performance immer mehr nachzulassen.

    Wenn man sich https://community.coops.tech/t…cloud-performance/2904/13 ansieht, scheint Collabora sehr verantwortlich zu sein, wenn das wegfallen oder durch OnlyOffice ersetzt würde, würde man wohl schon Verbesserungen sehen


    Aber auch mit Verbesserungen hier, dürften 4GB Ram schlicht viel zu wenig für dieses Paket an Anwendungen sein.


    Dockerized Mailcow: 6GB RAM ( https://docs.mailcow.email/prerequisite/prerequisite-system/ )

    Nextcloud: mindestens 2-4 GB RAM mit einigen Plugins

    Collabora: 1GB Ram + 100MB / Benutzer, vermutlich eher auch 2-4 GB RAM ( https://help.nextcloud.com/t/s…-collabora-online/30694/3 )


    Zudem wirst Du jedem dieser Schwergewichte mehrere CPU Cores geben wollen. D.h. zählt man das zusammen, landet man locker bei einem RS2000 bis RS4000. Ein eventueller Sweetspot könnte ein "RS 3000" sein, den es wohl am Black Friday 2022 wieder geben könnte, der in etwa meinem s.u. entspricht.


    RS Ostern L OST22 bietet folgende Leistungen:

    Festplatte:960 GB SSD

    Arbeitsspeicher DDR 4 ECC: 24 GB
    Prozessorkerne: 8 dediziert
    Prozessor:AMD EPYC™ 7702


    Evtl auch noch ein bisschen drunter, der RS 2000 könnte aber zu wenig sein.


    Auf einer solchen Basis wie beschrieben solltest Du alles o.g. und noch mehr performant betreiben können. Für Nextcloud will man ohnehin ja noch mehr Speicher haben, denn dafür ists ja da.