Beiträge von Paul

    Kann man sicherlich auch machen. Ist halt immer so eine Sache, ob das CSV richtig formatiert ist und man am Ende auch den Inhalt bekommt, welchen man erwartet. Sollte man idealerweise auch noch validieren. Man fängt dann an einen kleinen Stein aufzuheben und hat am Ende einen halben Berg auf dem Buckel ;) .

    Was für Bash Skripte sind das denn? Allgemin schreit das förmlich nach einem Tool wie Ansible, mit dem du für deine Server verschiedene Variablen setzen kannst (im YAML Format). Das muss auch nicht zwingend remote ausgeführt werden. Das würde auch lokal gehen, in dem es das Git repo auscheckt und lokal Ansible ausführt.


    Das Auslesen von Variablen aus einer CSV Datei um diese in einem Bash Skript zu verwenden klingt doch sehr abenteuerlich.

    Ich finde es Schade das Netcup nicht wie andere ein automatische Backup des Servers anbietet.

    Netcup kann ja nicht wissen, was du alles auf deinem Server laufen hast und welche Backup Methode jetzt genau für deine Applikationen sinnvoll sind. Snapshots existieren zwar, liegen aber lokal und sind daher streng genommen kein richtiges Backup. Generell sind zwar Snapshots nützlich, aber ersetzen kein richtiges Backup, weil sie auch nicht immer sauber funktionieren. Datenbanken lassen sich z.B. nur bedingt damit sichern. Ist der Server Teil eines Clusters, sind Snapshots auch nicht unbedingt sinnvoll. Daher lieber keine solche Funktion anbieten als eine, die nur Support Aufwand schafft, weil sie gar nicht richtig funktionieren kann. Daher an dieser Stelle ein gut gemeinter Ratschlag. Verlass dich nie auf die automatische Backup Funktion eines Providers. Du kannst nie sicher sein, ob das tatsächlich so funktioniert wie du das gerne hättest. Für ein ordentliches Backup ist und bleibt der zuständige Admin verantwortlich.

    Man sollte sich in die Sache auch nicht zu sehr rein steigern. Am Ende des Tages ist der Komfort meist am wichtigsten. Die entscheidende Frage ist ja auch immer: Wer ist der Angreifer? Vor wem will man sich eigentlich schützen? Im Zweifel klopft der einfach an deine Tür und bringt dir etwas Demokratie vorbei. Dann gibt man im Zweifel jedes Passwort "freiwillig" raus - unabhängig von der eingesetzten Verschlüsselungsmethode.


    Nutzt einfach den Passwortmanager, der euch am besten gefällt. Ob der jetzt über die Cloud synchronisiert oder lokal ist am Ende auch egal. Die meisten machen ihren Job ja ganz gut. Sobald man einen nutzt, macht man sich wenigstens etwas Gedanken über das Thema. Meist reicht das dann auch schon.

    Eine coole Aktion wäre ja gewesen, wenn man speziell ein paar Eier hier im Forum versteckt hätte, die nur angemeldete Forenuser hätten finden können. Das hätte auch die ganzen Bots mal effektiv ausgesperrt und verhindert, dass die guten Eier so schnell weg gewesen wären - auch wenn natürlich nachgelegt wurde.

    Auf der anderen Seite erzeugt so ein Feature wie "Firewall as a Service" natürlich auch wieder mehr Support Aufwand, weil eine FW gerne auch mal falsch konfiguriert werden kann, wenn man nicht genau weiß, was man tut. Als Nutzer hat man dann natürlich auch keine Logs, was das Debugging deutlich erschwert. Wir wissen ja mittlerweile, was Netcup auch so für Kunden hat und wie die Support Situation im Moment so ist. Mir würde dann jetzt schon Lars etwas Leid tun, der dann alles immer ausbaden muss ;).


    Das rote H nutzt halt einfach das FW Feature der Cloud-Software (wie viele andere Provider auch). Da müssen sie nichts großartig machen - außer es in ihr Dashboard zu integrieren. Das ist dann doch nochmal eine andere Situation als bei Netcup - wo dann doch viele Eigenentwicklungen drin stecken - was die Weiterentwicklung natürlich etwas schwieriger/aufwändiger macht.

    Eine Frage in die Runde, welche Software setzt ihr für eure "internen" Wikis ein von den hier manchmal die Rede ist?


    In der Forensuche habe ich auf die schnelle "MoinMoin" entdeckt, aber vielleicht kennt ihr da noch mehr. Ein MediaWiki nur für mich selbst einzurichten wäre zu viel.

    Wiki.js (https://js.wiki/). Aus einem ganz bestimmten Grund: Es kann alle Seiten als Markdown Files speichern und über Git synchronisieren. Sprich wenn dein Wiki aus irgendeinem Grund mal weg sein sollte, hast du jederzeit über das Git Repo Zugriff auf den Inhalt und musst es nicht erst aus dem Backup wiederherstellen.

    Bei mir war es das IPv6 Failover Netz, was auf einmal nicht mehr wollte. Ist mir gar nicht direkt aufgefallen, weil IPv4 weiterhin funktionierte. Es war auch nur von meinem neuen Ostern RS nicht erreichbar, von anderen Servern hingegen schon (allerdings mit Packet Loss). Scheint wohl aber wieder zu gehen, zumindest kann ich gerade keine Probleme mehr feststellen.

    seit wann wird das bei den root servern vcpu genannt?

    Waren ja schon immer nur vCPUs. Nur die Nutzung/Verfügbarkeit wird dort garantiert im Gegensatz zu den VPS. Daher ist das eigentlich gut, dass das auch so benannt wird. Da gibt es dann auch keine Verwechslung mehr mit wirklichen root/dedizierten Servern.

    Die 13,07 Euro sind ohne NUE Zuschlag, der ist dann regulär bei 15,03 euro

    Ja, das meine ich. Sobald aber der Standort keine Rolle spielt, bezahlt man beim Aktionsprodukt mehr als beim regulären Produkt. Ich hätte jetzt als kleinen "Teaser" eher etwas "attraktiveres" erwartet ;).

    Speziell für unsere Newsletter-Subscriber verraten wir schon heute zwei der vielen Aktionsprodukte:

    • RS Eggstreme NUE mit 16 vCPU und 3 TB SSD für nur 56,66 €/Monat
    • VPS 2000 G10 NUE mit 10% Rabatt für 13,52 €/Monat

    Irgendwie komisch. Der reguläre VPS 2000 G10 kostet 13,07 €. Das sieht mir jetzt auf den ersten Blick nach einem eher schlechten Deal aus. Vielleicht hat er ja etwas mehr Ressourcen. Aber dann sollte man ihn ehrlicherweise eigentlich nicht mehr VPS 2000 nennen, sondern mit einem eigenen Namen versehen (macht man ja sonst auch - wie beim obigen RS). Bleibt noch der Standort - aber das ist irgendwie auch nicht so der Brüller.

    hm, das hatte ich eher als Cloud/Container-OS in Erinnerung. Hab's mal installiert, das "Virtual" Image hat gerade mal 40MB, war in weniger als 5 Minuten erledigt - rekordverdächtig! Und gerade mal 50 MB belegt... ok, mit paar Paketen dazu sind es jetzt 130 MB, aber das ist immer noch sehr wenig. Macht bis jetzt einen sehr guten Eindruck - also schonmal vielen Dank dafür!

    Sehr gerne! Alpine kennt man vor allem als Basis Image für (Docker) Container. Gerade weil es so klein und schlank ist. Man kann es aber auch problemlos auf VMs oder auch auf Bare Metal Systemen einsetzen. Hatte lange meine Mailserver auf Alpine Basis. Man muss nur mit der musl Lib manchmal etwas aufpassen. Aber bei dem genannten Einsatzszenario sollte das gar kein Problem sein.

    Viel Erfolg mit dem Projekt!

    Lustige Aussage.

    Wenn du ihn abgeben willst, schreibst du also wahhlos Leute an, ob sie ihn haben wollen, weil dich ja Interessenten nicht anschreiben dürfen? :D

    Genauso wie sein Millionen-Erbe neulich. Da hat er auch alle per E-Mail angefragt, ob sie davon was abhaben wollen ^^ . Ist ja eine durchaus gängige Methode.

    Natürlich zahlt man auch die Verlängerungsgebühren, die durch die verschiedenen Registries erhoben werden. War vielleicht oben ein wenig missverständlich formuliert. Ging mir primär darum, dass man dort keine Zusatzgebühren zahlen muss, die die einzelnen Reseller erheben.

    Aus diesem Grund habe ich mittlerweile sogar einige Domains direkt bei Cloudflare (als Registrar + DNS Provider). Da zahlt man zumindest nur die Registrierungsgebühren. Die Frage ist nur wie nachhaltig die das so anbieten können. Aber bis dahin kann man dadurch auch nochmal einiges sparen. Da bezahle ich für meine com Domains nochmals deutlich weniger als noch beim Günstigen Namen. Und da waren die Preise schon recht gut.