Beiträge von Bodenhaltung

    Ich finde es irgendwie ein bisschen unverschämt, wie sich manche Leute über netcup aufregen. Klar, an manchen Stellen kann man vielleicht etwas nachbessern, aber man sollte immer die Preise hier im Hinterkopf behalten. Und wenn ich als Unternehmer mit mehreren tausend Kunden, welche auf meine Server zugreifen, keine Redundanz (oder bspw. ein Cluster) in der Serverstruktur bereitstelle, dann kann ich mich auch nicht aufregen, dass mein Server für 30 Minuten down ist.

    Sehe ich auch so, habe mir auch eine "Hochverfügbarkeit für Arme" gebaut und tut was es soll. Das zeigt nur mehr das derjenige eher nicht dafür geeignet ist. Zumal ich auch eher dafür bin am Tage neuzustarten als Nachts, da ich Nachts meinen Peak im Projekt habe. :D

    Bei Georedundanz gilt idR. ein Radius von 30km (Wirkungskreis einer Nuklearwaffe). Aber schön, dass du diese Diskussion ernst nimmst.


    Georedundanz? Zweite Erde? </troll>

    Aktuell liegt der Radius bei (bis zu) 50km laut BSI.

    Die haben die meisten Provider mittlerweile abgebaut, sind langsamer als die Alternativen und schmeißen auch nur alles auf die Google Resolver. TTLs werden auch selten respektiert.


    Meine Resolver verwenden die normale DNS Chain und respektieren die TTLs (inkl. DNSSEC und TLS). So wirklich langsam find ich die eigentlich nicht.

    Für interne Doku suche ich ein schmales Wiki/CMS auf PHP Basis welches mit Markup zurecht kommt und am besten nur sqlite als Datenbank Abhängigkeit hat.


    Kann da jemand was empfehlen?

    Der Sinn des Ganzen ist doch eh nicht irgendeine Verbesserung für den Nutzer, sondern den Datenkraken zu ermöglichen, das Nutzerverhalten NOCH einfacher und besser analysieren und steuern zu können.

    Vielleicht nicht direkt für den deutschen Durchschnittsnutzer, ja. Aber es gibt genug Bereiche wo es "hilfreich" ist das DNS Anfragen "neutral" bzw. $irgendwie verschlüsselt übertragen werden können.


    Sicher, mit jeder Technik lässt sich irgendwie eine Datenkrake konstruieren.

    Wäre es im Grunde ja auch, wenn nicht z.B. die Browser hergehen würden und das auf einmal standardmäßig einschalten (unabhängig davon, welche DNS Resolver man in seinem Betriebssystem hinterlegt hat). In den meisten Fällen würde man das sogar nicht einmal merken. Das ist schon eine sehr aggressive Verbreitungs-Methode, die da zum Tragen kommt. Daher ist das aktuell schon etwas mehr als nur ein Vorschlag, über den wir da sprechen.

    Das kann man dann im Browser ja entsprechend einstellen bzw. prüfen, sowie jetzt auch die DNS Server vom Internetanbieter per Default verwendet werden wenn man sich nicht kümmert.


    Sowie auch einer der Vorteile ist ja, dass der (DNS) Traffic nicht vom normalen HTTPS Traffic zu unterscheiden ist.

    Momentan ist es mehr ein Vorschlag mit noch offenen Fragen also bevor irgendwelche selbsternannten Bedenkenträger den Finger heben, beteiligt euch vernüftig daran oder lasst es, es zwingt ja auch niemand dies dann zu benutzen, es soll auch nur eine Alternative sein. Die ganzen genannten Stichpunkte sind nur Phrasen ohne Substanz.

    Man könnte ja im CCP/SCP ein einfaches Textfeld einbauen um den Public Key abzufragen. Der muss ja dann nur in die authorized_keys geschrieben werden.

    So löst es z.B. ja auch OpenStack, da gibt es keine Images mit Passwort und ist auch nicht vorgesehen, in der Oberfläche kann man dann die Keys hinterlegen welche dann auch von cloud-init in die authorized_keys geschrieben werden. Noch einfacher wäre es wenn die Kisten vollautomatisch die Anwendung starten und ich nichtmal per SSH raufmuß, wie die Docker oder Kubernetes Lösungen.

    na ja irgendwie logisch; schließlich laufen da ja Webserver auf'm Host und deren Aufgabe ist es ja Daten zu liefern (= Upload)

    und eher selten Daten zu empfangen (= Download)

    Nein, ist bei diesem konkreten Problem nicht logisch und hat mit dieser "Erklärung" absolut und rein gar nichts zu tun. Manchmal ist es auch einfacher nichts zu einem Thema zu sagen wenn man konkret keine Idee hat.