Beiträge von whoami0501

    Zitat

    Bei Cloudflare muss die End-to-End-HTTPS-Verschlüsselung für den durch Cloudflare geschützten Website-Verkehr konfiguriert werden.

    Wie kann man denn bitte bei einer Layer 7 WAF (bzw. Reverse Proxy), die das TLS terminiert und neu aufbaut, von End to End sprechen?

    Dann wäre E-Mail Traffic mit 12 Relays zwischendrin (zwischen welchen allen TLS genutzt wird) ja auch automatisch E2E Encrypted...


    Von E2E könnte man vielleicht noch bei Layer 4 ohne TLS Terminierung sprechen, aber auf Layer 4 kann man de facto keine WAF betreiben, weil man die Requests ja gar nicht analysieren kann.


    Ich weiß warum ich diesen Verein nicht leiden kann... den Datenschutzhorror mit fachlichen Falschaussagen schön reden.


    ------


    Anderes Thema - sollte eurer Meinung nach ein Webserver bei einer Antwort mit Statuscode 304 einen HSTS Header so wie die ganzen anderen Security Header mitsenden? Ich tendiere ja eher zu nein, weil nicht so wirklich sinnvoll, aber was sagt ihr dazu?

    mainziman So ist es. Mein Ziel ist es, effizient komplette ASNs zu blockieren. :)


    Und daher hilft mir vmk sein Ansatz leider nicht weiter (trotzdem danke!).

    Ich denke, dass das mit dem NetzID Vergleich schon gut funktionieren wird, ich muss es bloß mal realisieren. ^^

    So in etwa war mein Gedanke. Das Problem ist, dass das ganze theoretisch mehrere Stufen haben kann. Also z.B. ein 24er, was in einerm 21er ist, was in einem 16er ist, welches am Ende in einem 12er ist. Da müsste ich ja dann anders herangehen.


    Was gehen könnte, ist, dass ich die Liste der Netzgröße entsprechend absteigend sortiere (größte Netze oben) und dann Netz für Netz die Liste nach Netzen durchsuche, die mit meiner NetzID beginnen. Damit könnte es theoretisch gehen... oder habe ich da noch einen Denkfehler? :/



    EDIT:

    Das klingt wie eine Aufgabe aus der Berufsschule

    Umso mehr ich darüber nachdenke... ich habe ab nächste Woche nen neuen Azubi im Team. Also ich meine der könnte ja... aber ich glaube bei Privatkram springt unser Product Owner im Dreieck. :D

    Gegeben sei eine Liste mit sehr sehr sehr sehr vielen Subnetzen (entweder v4 oder v6, nicht gemischt). In der Liste gibt es mehrere große Subnetze, welche sehr viele kleinere Subnetze aus der Liste enthalten.


    Ich möchte diese Liste optimieren, indem kleine Subnetze aussortiert werden, welche bereits durch größere Subnetze abgedeckt werden.


    Nach meinem Brainstorming sollte man das machen können, indem man die Netzanteile in Binärschreibweise vergleicht. Aber so ganz bekomm ich das noch nicht so zu Ende gedacht... :/


    Hat das schon mal jemand gemacht und da ein Script dafür liegen? Oder hat jemand ein paar Ideen/Pseudocodeschnipsel, mit denen man das möglichst elegant lösen könnte? :)

    Mal so eine Frage an die nginx Liebhaber hier... würde euch für folgende Config etwas eleganteres einfallen?

    Ziel ist es, die erkannten Bot Anfragen in ein anderes Logfile zu leiten, als die "normalen" Anfragen.


    Code
    if ( $is_bot ) {
        return 444;
        set $no_bot 0;
    }
    if ( $is_bot = 0 ) {
        set $no_bot 1;
    }
    access_log /var/log/nginx/access_bots.log vcombined if=$is_bot;
    access_log /var/log/nginx/access.log vcombined if=$no_bot;

    Support habe ich schon angeschrieben, aber noch keine Antwort erhalten (Arbeiten womöglich nicht am Sonntag?)

    Doch, tut er. Aber logischerweise nur sehr begrenzt.


    Wenn du dir zu 100% sicher bist, dass der Fehler nicht bei dir liegt, kannst du den Notfallsupport nutzen. Das ist nach meinem Wissensstand kostenfrei, solange das Problem bei Netcup liegt. Sollte der Fehler allerdings bei dir liegen, wird dir die Supportleistung zusätzlich in Rechnung gestellt.

    Es steht nicht mal dran dass SFTP geht..

    What? Warum sollte das dran stehen? Es geht ja nicht.


    Für dich zur Info: FTPS != SFTP

    SFTP nutzt einen verschlüsselten SSH Tunnel zur Datenübertragung, währenddessen FTPS normales FTP mit SSL/TLS Verschlüsselung ist. Das ist nicht das selbe, da gibt es einen technischen Unterschied.

    Und wieso läuft der ISO upload eigentlich via ftp statt sftp ab..

    "Historisch gewachsen", würde ich sagen...


    Aber es ist ja FTPS möglich - das Zertifikat ist zwar nicht für die IP Adresse gültig, aber wenn man die Fehlermeldungen unterdrückt gehts schon. Und damit tut es eigentlich seinen Zweck, würde ich mal sagen... unsicher ist das jetzt nicht wirklich. Unelegant vielleicht, aber das spielt ja erstmal keine Rolle. ;)

    Ich komme über die Schweiz. Frankfurt hat immer wieder sporadisch sehr hohen Packet Loss bzw. im Schnitt um die 1%.

    Ahh, dann wird es definitiv ein anderes Netz sein. Alles klar, danke. Nuja... dann wirds wohl bald mal wieder ein neues Subnet werden müssen. Nervig... :x

    Schreib doch bitte die Vermutung gleich dazu. Denn per IPv6-Tunnel über HE ist der Shop aufrufbar.

    Habe ich doch, immer mit der Ruhe. ;)


    Aus meinem /64er Netz kam aber zu 100% keine Randale, als dass es deswegen gesperrt sein könnte. Da wurde nur normal gesurft. Also eine Ebene höher - /48.

    Aus welchem /48 Netz bei HE kommst du?


    Da kann es wirklich nur noch sein, dass da ein /48er von HE gesperrt wurde, in dem ausgerechnet ich mit drin sitze. Ein anderer Grund fällt mir beim besten Willen nicht ein... außer ein Cache Fuckup, aber das kann ich mir nicht vorstellen. :/

    Ahh, verdammt. Mein Gedanke war nämlich, dass das eine Alibi-Blockseite ist und mein Netz von HE da geblockt ist (bzw. eher komplett HE). ^^

    wo is jetzt des Problem?

    Zitat

    Of the 51% observed fewer than four times, all
    but 2.86% of these have a first label between 7 and 15 characters in length
    (inclusive). Furthermore, most of these match the pattern consisting of only a-z
    characters (case insensitive), leaving us with 45.80% of total traffic on this
    day that appear to be from Chromium probes


    Fast 46% aller Anfragen und damit nach meinem Verständnis auch Last sind sinnlose Müllanfragen aus Chromium, für eine in meinen Augen irgendwie ziemlich fraghafte Funktion, die dem User scheinbar mal wieder das Denken abnehmen soll.