Posts by TBT

    Es ist mittelmäßig sinnfrei, die Domain unkenntlich zu machen, wenn man die Server IP im Klartext hinschreibt.


    Deine Domain TTL liegt bei 15 Min, daher kann es mindestens diese Zeit dauern, bis eine Änderung durchpropagiert ist. Manche Caches bei Providern beachten die TTL nicht. Es kann auch gerne am lokalen Cache des Routers oder Rechners liegen.


    Davon abgesehen wirst Du mit dieser DNS Konfig hundertprozentig in vielen Spam Filtern landen, d.h. Mails, die von Deinem Server geschickt werden, werden nicht angenommen.


    Vorgehen:

    - nimm durchaus mail.domain.tld (passt)

    - es muss ein A Record für mail.domain.tld existieren, der auf die IP zeigt (passt)

    - es muss ein MX Record existieren, der auf den A Record (nicht auf eine IP zeigt) (passt)

    - ein korrekt konfigurierter PTR Record muss eine Auflösung IP -> mail.domain.tld ermöglichen (passt nicht). Dies geht nicht im DNS, sondern im Verwaltungsinterface des Hosters, d.h. im Servercontrolpanel bei der IP.

    - ein SFP Record gehört im DNS angelegt und korrekt konfiguriert (passt nicht)

    - DKIM sollte konfiguriert werden (vermutlich noch nicht gemacht)


    Es sollte eine Selbstverständlichkeit sein, dass der Mailserver nicht als Open Relay konfiguriert ist (sonst Spamschleuder), sondern SMTP Auth zwingend erfordert. Zudem sollten IMAP und SMTP auch per SSL möglich sein.


    Ein Backup der Postfächer nach extern sollte zudem konfiguriert werden.


    Tool zur Überprüfung vieler der genannten Parameter: https://mxtoolbox.com/


    TLDR: der Betrieb eines Mailserver ist aufwändig und verantwortungsvoll und nicht "mal eben" gemacht. Wenn es andere Möglichkeiten gibt, sind diese häufig deutlich einfacher.

    Jep. Ist klar. Ich wollte halt einen wirklich feinen Lösungsansatz aufzeigen. Wenn man auch für die Zukunft was lernen will, wäre die Nachverfolgung des Vorschlags sicher sinnvoll, denn so setzt man heute halt einfach Anwendungen auf.


    Und bei DerRené wird ja ein "Profi" Icon angezeigt. ;)

    Wenn ich auf dem Webspace 2 Subdomains habe kann aber nur per A record auf eine IP weiterleiten wie soll er dann wissen das er dort hin muss?

    https://www.whatismybrowser.co…ers-is-my-browser-sending


    Da brauchts keinen Proxy, das ist eine Standard HTTP Funktion schon seit Uhrzeiten. Der Client (Dein Browser) sendet einen Header, in dem die Domain steht, die Du haben willst. Der Webserver liefert dann die Website aus, die angefragt wurde und bedient sich dabei aus dem Webroot Ordner, der für diese Domain in der Webserverkonfiguration angelegt ist.

    Die definitiv schnellste Variante, Node Red zu installieren, wäre via Docker:


    Grafisches Interface zur Verwaltung: https://www.portainer.io/


    Node Red: https://nodered.org/docs/getting-started/docker (ich würde das Docker Compose File nehmen).


    Davor dann in einem zweiten Container https://nginxproxymanager.com/ als Reverse Proxy, welcher Dir genau diesen Port weg macht und zugleich noch Let's Encrypt SSL Zertifikate zur Verfügung stellt.


    Dann noch https://github.com/containrrr/watchtower dazu, der die Container automatisch updated.


    Und Du hast eine ziemlich sorgenfreie Sache, die Du auch mit anderen Containern erweitern kannst.


    All das erfordert evtl mehr Einarbeitung als einfach nur Code Red zu installieren, aber glaub mir: Du wirst es lieben.

    Das ist so schon ein einfacher Weg. Wenn Du DNS nicht zu Netcup delegierst, sind die Netcup DNS Einstellungen, die evtl im Webspace zu finden sind (ich habe keinen) definitiv wirkungslos. Es zählt im WCP dann nur die Konfiguration des Webservers, der sich natürlich für eine z.B. http://www.domain.tld, die per A Record (der auf Cloudflare konfiguriert ist und zur Webserver IP zeigt) zu Netcup geleitet wird, zuständig fühlen muss.


    Du kannst jederzeit und das machst Du ja auch, per explizitem A Record Eintrag einzelne Subdomains auch woanders hin steuern (zum Server).


    Eine Alternative wäre noch, dass Du den DNS doch zu Netcup delegierst, dann gelten auch die DNS Einträge dort, ich nehme an das WCP macht da vieles automatisch. Aber dann hast Du halt die Vorteile von Cloudflare nicht.


    Du musst natürlich auch die MX Mailserver DNS Konfig anpassen, wenn Du auf einem bestimmten Server oder im Webspace Mails empfangen willst.

    Der Netcup Support ist für (Web) Anwendungen ja auch nicht da. Die stellen das Webhostingpaket / Server zur Verfügung, der Rest ist Deine Sache. Sprich: der Netcup Support ist schlicht nicht zuständig.

    Wenn Du Full Service Support haben willst, musst Du ihn auch (woanders) zahlen.

    Es gab über die Jahre schon so viele Anläufe mit ARM Servern. Bisher hat noch keiner es zum riesigen Durchbruch geschafft. Neben allen o.g. Argumenten wäre ein weiteres: wenn nun Netcup hier investieren würde (viel Aufwand!) und dann die Entwicklung (wieder mal) in eine Sackgasse läuft. Dann hat man ein totes Pferd im Serverraum, das dann im blödsten Fall keiner will.


    Die Preise von Netcup sind doch jetzt schon für das Gebotene sehr sehr gut (insbesondere bei den Sonderangeboten). Da kommt man mit ARM imho auch kaum drunter, denn SSDs, Netzwerk, Traffic bleiben ja unverändert.

    Virtualisierung im Kleinformat: VMware ESXi für den Raspberry Pi | heise online

    Ich selbst hab das noch nicht getestet, würde aber deine Frage durchaus mit Ja beantworten. ;)

    ESXi hat aber mit KVM und Qemu (was ja Netcup verwendet) nichts zu tun.


    Es gibt ja durchaus Plattformanbieter, die leistungsfähige Serverhardware mit sehr vielen ARM Kernen anbieten. Allerdings sind das meist Spezialanwendungsgebiete, wie Networking, High Performance Computing oder anderen Dingen. Es gibt Mitbewerber, die mal basierend auf Cavium ThunderX SoCs ARM VServer angeboten haben... mittlerweile wurde die Firma von Marvell aufgekauft... Es gibt auch diese ARM VServer nicht mehr.


    Man müsste sich doch die Frage stellen: was bringt ein ARM VServerangebot wirklich? Was ist ein Alleinstellungsmerkmal? Und da fällt mir nix ein. Beim Mitbewerber waren die ARM Server die günstigsten Angebote. Netcup schafft es aber, mit x64 Hardware günstiger als diese ARM Angebote zu sein. Und da nimmt man doch lieber x64 Server. Weiterhin ist das eine ganz andere HW Architektur, je mehr von diesen man als Provider warten muss, umso größer der Aufwand.


    TLDR: der Aufwand eines solchen Angebots steht in keinem Verhältnis zu den Einnahmen, die man damit evtl generieren könnte.

    Eher wenig. Wozu sollte man sowas nutzen? Die (Linux)Paketquellen sind definitiv weniger für ARM oder man muss sich mehr selber kompilieren. Das wäre ein Sonderserver und kein "Brot und Butter" Server, wie sie Netcup anbietet.


    Ich darf https://www.heise.de/hintergru…ften-6291991.html?seite=3 zitieren:

    Quote

    Unmittelbar nach der Vorstellung der 64-bittigen ARMv8-Architektur im Oktober 2011 machten sich fast ein Dutzend Firmen auf, ARM-Chips für den Servermarkt zu designen: Samsung, Broadcom, Qualcomm, Cavium, Caldexa, Applied Micro, AMD, Marwell. Davon haben die meisten ihre Pläne begraben oder ihr Design verkauft, oder sie gingen wie Caldexa in Konkurs.

    Mag mit V9 anders aussehen, da gibt es ja auch einige Entwicklungen, aber ich seh so was deswegen noch lange nicht im Brot und Butter Bereich im Einsatz. Es gibt definitiv Einsatzgebiete für ARM v9, aber imho eher nicht bei Netcup. Zudem gilt auch für Heise:

    Quote

    Im Softwarebereich hat x86 noch deutliche Vorteile, sowohl an Vielfalt als auch an Reife und Stabilität.

    Willst Du wirklich die komplette Domain inklusive aller bestehenden und noch nicht bestehenden Subdomains auf den heimischen Server umbiegen? Nicht nur z.B. home.domain.tld? Wieso hast Du dann Webhosting? Es ist deutlich sinnvoller eine Website auch auf dem Webhosting zu hosten (Upload!). Wenn Du einfach nur eine Domain haben willst, um Dein heimisches Netz zu erreichen, wäre eine Subdomain durchaus sinnvoller und ausreichend.

    Es geht übrigens auch durchaus, dass Du Dir bei den DynIP Anbietern, die die FB unterstützt einen Account holst und eine Subdomain (z.B. home.domain.tld) als CNAME für meintolleshome.dyndns.org (oder einen anderen unterstützten Dienst) einträgst.


    Ansonsten gibt es ja auf https://www.netcup-wiki.de/wiki/API_Clients auf FB Seite einiges. Aber das hast Du anscheinend schon gefunden und installiert.

    Filesystem vergrößern, fertig. (Da musst du dich als Linux-Serveradmin selbst kundig machen, wie das genau geht ;))

    Mache einen Snapshot auf dem alten Server und spiele ihn auf dem neuen Server ein (dieser muß HD mäßig größer sein).


    Dann leg im SCP das CD Image "GParted Live CD 1.3.0" ein und boote davon (Bootmodus auf DVD setzen? -> Ein). Dann kannst Du über die VNC Konsole (Allgemein - Auf das kleine Bild des Servervideofeeds rechts klicken) via ner GUI die Festplatte sehr komfortabel vergrößern.

    Quote

    Vielen Dank für die ausführliche Antwort.

    Ist der nginxproxymanager nicht bisschen overkill für meine Anwendungszwecke?

    Absolut nicht. Der ist bei mir immer drauf, denn er macht SSL und Umsetzung von Ports wunderbar. Der Aufwand ist einige Minuten, denn man konfiguriert und startet lediglich den Container. Wenn der Server allerdings Dein erster Kontakt mit Docker ist (danach sieht es aus), würde ich empfehlen, erst einmal lokal damit zu spielen (z.B. in einer Linux VM zu Hause). Container werden auf Ausgangszustand zurückgesetzt, wenn man nicht die Ordner/Files über "-v" ins Filesystem des Hosts rauslegt.


    Quote

    Reicht es nicht, wenn ich die DNS Einträge bisschen anpasse?

    Nein, da Du weder SSL noch die Umsetzung von Ports auf SSL mit DNS machen kannst.


    Quote

    Und kann ich die Backups nicht über die Plesk-Oberfläche von Netcup laufen lassen?

    Nein, da nicht vorhanden. Plesk wird außerdem für das Vorhaben überhaupt nicht benötigt und dürfte einen riesigen Overhead und ggfalls zusätzliche Kosten haben.

    Mein Geplanter Workload ist eine Plausible.io und eine listmonk.app installation. Ich hab bei beiden keine Mindestanforderungen gefunden.

    Meint ihr der VPS 200 reicht dafür?

    https://listmonk.app/ :

    Quote

    A production listmonk instance sending a campaign of 7+ million e-mails. CPU usage is a fraction of a single core with peak RAM usage of 57 MB.

    In der Tat nicht viel.


    ABER:

    Minimum Requirements für PostgreSQL:

    • 1 GHz processor.
    • 2 GB of RAM.
    • 512 MB of HDD.

    und das ist das Minimum. Dann läuft aber da noch nichts anderes drauf. Und der 200er hat nur 2GB Ram. D.h. nein, das reicht auf dem Papier schon nicht.


    Wenn Du eine komfortable Docker Umgebung zum Betrieb Deiner genannnten Anwendungen haben willst, wären noch folgende weitere Container sinnvoll bis teilweise sogar nötig:

    ...und wenn man nachdenkt, fallen einem da noch viele weitere ein. Das praktische an Docker ist ja gerade, dass man sehr einfach einen Container spawnen und auch wieder löschen kann.

    Daher würde ich den VServer nicht am absoluten Minimum orientieren, sondern ein wenig mehr CPU, v.a. RAM und auch Speicher vorsehen.


    Ich betreibe meine Dockerumgebung mit mehreren Anwendungen auf einem VPS, der dem heutigen Weihnachtsspecial https://www.netcup.de/bestellen/produkt.php?produkt=2837 entspricht. Das ist ein wunderbarer Docker Host für wirklich zahlreiche Anwendungen.

    Echt? Darf ich fragen warum?

    Komplexeres Setup, Blacklists, Extrawürste z.B. von T-Online, die ein Impressum auf einer Website unter der Maildomain haben wollen, Benutzer, die verwaltet werden wollen. Backups, Spambekämpfung um nur einiges zu nennen.

    Guter Punkt: Ich habe das sehr kleingedruckte übersehen: 1€/Monat, also 12€ pro Jahr...

    Da gibts aber auch welche, die eine DE Domain für 6,50€ / Jahr anbieten, oder auch darunter. Regulär, ohne spezielle Sales.

    Zumindest beim DSL kenne ich es aus beruflicher Erfahrung und mehreren hundert Migrationen so, dass der Alt Provider es dem Neu Provider möglichst schwer macht, um den Wechsel möglichst schmerzhaft für den Kunden zu machen (Botschaft an dessen Freunde soll sein: Hättest du besser ma nicht gewechselt..)

    ...und aus diesem Grund kann ich nur empfehlen und mache das seit 20 Jahren so, dass Domains permanent bei einem reinen Domainprovider gebucht werden und die DNS Server von dort auf Webspace- oder Serverprovider delegiert werden, wo man sie dann verwalten kann als wären sie beim Webspaceprovider selbst. So ist ein Umzug eines Webspace / Servers nur eine DNS Serveränderung beim Domainprovider, man braucht keinen aufwändigen und fehlerträchtigen Umzug machen, Domainlaufzeiten werden nicht unterbrochen und neu angefangen (Kosten!).


    Netcup unterstützt im Webhosting als solche "Externen Domains" (im größten Paket 12) aber viel zu wenige. Für den Preis (oder niedrigere) bieten Wettbewerber unlimitierte externe Domains an, bzw. beziffern diesen Punkt überhaupt nicht. So sehr ich die V- und Rootserver mag, so wenig kann ich daher dem Webspaceangebot abgewinnen.


    Wenn es nicht ganze Domainumzüge sind, sondern nur ein A, MX oder sonstiger Record umgelegt wird, empfieht es sich, die TTL gut vor der Änderung auf einen kleinen Wert (z.B. 5 Minuten) zu setzen (und danach wieder hoch). Dann ist der Umstieg fast überall blitzartig erledigt.