Beiträge von whoami0501

    so lange man nicht im selben Atemzug von IPv4-Adressknappheit spricht ist das auch in Ordnung so;

    Eigentlich habt ihr beide recht.


    Diese ganze CGNAT Geschichte ist wie mit nem Platten auf der Autobahn weiterzufahren und zu beten, anstatt anzuhalten und das Rad zu wechseln.

    Damit hätte man nie anfangen dürfen, aber IPv6 beißt ja bekanntlich (nicht lol)...


    Was so einige ISPs heutzutage abziehen ist einfach nur peinlich.

    der Eintrag ist seltsam ..., handelt es sich bei 172.21.1.101 um eine IP-Adresse welche tatsächlich zu einer der VMs gehört, die hinter dem Bridge-Interface vmbr0 laufen?

    Korrekt erkannt, das ist ein Proxmox Host mit Portforwarding an LXC Container - daher hier die interne IP des Reverse Proxy. (dport ist

    Aber auch hier kann und darf die Quell IP nicht aus der CGNAT Range 100.64.0.0/10 stammen, wenn das Paket von außen rein kommt.

    Wie gesagt - hier brauchst du jetzt Prepared Statements --> https://stackoverflow.com/ques…ents-with-mysql-in-python


    Hast du bei den prints einfach die Klammern weggelassen oder arbeitest du ernsthaft mit Python2? Dir ist bewusst, dass Python2 End of Life ist und nicht mehr supportet wird? (https://www.python.org/doc/sunset-python-2/)

    Da jetzt Software drin zu schreiben ist quasi unsicher und fast für die Tonne... es lässt sich ja zum Glück einfach auf Python3 "umschreiben".

    Mal versuchen etwas weiter zu kommen. Darf ich wenn ich die nächste Hürde finde wieder fragen?

    Klar, gerne

    Ich war im Kopf bei PHP - aber du hast natürlich völlig recht: Bei Python3 heißt die Funktion fetchone()


    Btw - wenn du derartige Zeitserien speicherst, solltest du dir vielleicht auch mal InfuxDB anschauen. Das nutze ich bei meiner Wetterstation auch. ;)

    Die InfluxDB wirkt für mich bei Zeitserien und Tools wie Grafana in der Performance weitaus überlegen.

    Welche Klasse wann wo ist mit welchem Lehrer und dadurch dass auf der Website darüber ein Klassenfoto ist, auch, welcher Schüler wann wo ist. ^^


    Ich finds aber auch sinnlos, ich denke so Themen wie MS Teams oder der Einsatz ähnlicher Produkte bzw. viel mehr die Datensammelwut der großen IT Giganten sollten da eigentlich viel eher Themen sein... aber naja. Dafür braucht man ja Fachkompetenz.

    Wow... also ich bin ja an einer Berufsschule, die sich selbst als IT Kompetenzzentrum betitelt.


    Da war jetzt letztens mal ein Datenschutz Guru da und der hat, anstatt vielleicht mal den Einsatz von Produkten wie z.B. MS Teams zu reglementieren, angemakelt, dass der Vertretungsplan ja öffentlich abrufbar ist und kein Passwort davor hängt.


    Schule so: Okay, machmer.


    Ergebnis: Das Passwort hat eine Entropie von ca. 18 Bit und lässt sich eigentlich auch von Außenstehenden leicht erraten. Well, okay. Ich habe mir nun mal die technischen Umsetzung angeschaut - wirklich Passwortgeschützt ist nur die Seite, auf der ein Link zum Vertretungsplan (PDF Datei) ist. Die PDF Datei lässt sich ganz ohne Passwortschutz abrufen und folgt eigentlich auch jeden Tag dem selben Namensschema.



    Also das Gymnasium, auf welchem ich war, hat ja wenigstens direkt das PDF File Passwortgeschützt. Das Passwort wird zwar auch nicht von hoher Qualität sein, so wie ich die kenne - aber es ließ sich spontan nicht mal eben Bruteforcen. Dort ist wiederum witzig: Die Stundenpläne kann man sich alle ohne Passwortschutz laden.


    Die Stundenpläne bekommt man an der Berufsschule wenigstens nur, wenn man in Moodle eingeloggt ist.



    Hachja, sweet Neuland... :wacko:

    aBeR wIr nUtzEn dOch üBerAlL sSl vErsChlüsSelUng. :D

    Und, gibt es dazu noch Neuigkeiten? Die seltsamen Pakete trudeln nämlich nach wie vor ein:

    Nein, leider nicht. Ohne nachzuschauen bin ich mir auch recht sicher, dass diese Pakete nach wie vor auch bei mir noch ankommen. Da schau ich heute Abend mal danach.


    Ich bin hier mal so frei und markiere mal den Support Mitarbeiter meines Vertrauens [netcup] Brian A. - vielleicht kann er ja Licht ins Dunkle bringen. :)

    Mein absolutes Unverständnis bekommst du für diese Aussage.


    Wieso basht du so?

    Wieso sollte das Bashing sein? Es ist doch die Realität - und das ist auch nicht verkehrt, ich nutze derartige Ressourcen einerseits selbst und andererseits kann man die Hardware nur so möglichst effizient ausnutzen und virtuelle Server zu günstigen Preisen anbieten. Und das macht am Ende jeder Cloud Provider - die Kochen alle nur mit Wasser. Oder was dachtest du denn?


    Von OneDrive (aus dem Businessbereich) kenne ich es zum Beispiel so, dass jeder Nutzer 1TB Storage hat. Jetzt stell dir mal vor, Microsoft würde den Storage immer zu 100% vorhalten - die Preise für OneDrive würden explodieren. Ist das jetzt Bashing gegen Microsoft? Nein, ist es nicht, weil Microsoft bzgl. des Anbietens von Storage (so wie z.B. auch andere Wettbewerber) einfach auf Gewinnmaximierung aus ist und es nicht einsieht, für ungenutzte Dinge Geld auszugeben.

    Und ich bezweifel irgendwie auch, dass das z.B. bei Storagelösungen von Netcup oder auch anderen Hostern groß anders ist. Und auch denen kann man das nicht vorwerfen, weil sie einfach gute Preise anbieten und damit zeitgleich durch effektive Hardwarenutzung möglichst viel Geld verdienen wollen.


    Man sollte (in Puncto VPS vs. RS und CPU Leistung) als Admin halt nur damit kalkulieren, dass einem bei Bedarf nicht die volle Leistung zur Verfügung steht, wie wenn die Ressourcen dediziert wären. Und das muss man am Ende bei jedem Hoster, egal wie er heißt.

    Und wenn man dann als Admin in der Lage ist, den etwaigen Einfluss abzuschätzen, dann wählt man den für seine Ansprüche passenden Server aus und wird voraussichtlich nur äußerst selten Probleme haben.


    Das ist eigentlich alles auch kein besonderes Wissen, sondern ganz grundlegendes Basiswissen - Fachinformatiker (jede Fachrichtung) oder auch IT Systemkaufmann. Ende erstes Lehrjahr bis Anfang zweites Lehrjahr war das so grob gesagt bei mir.

    Ich hab hier nen VPS Eierpower 1 Ostern 2019. Hatte den immer nur für Mailcow und andere Sachen benützt, ging problemlos.

    Da der schön viel Speicher hat hab ich mir jetzt Nextcloud installiert.

    Urlaubsbilder vom Handy hochgeladen. Dann hab die im Browser anschauen wollen. Da hat man zuschauen können wie die einzelnen Vorschaubilder laden...

    Top aufgerufen => kommt vom Apache 100% Last. Aber ich hab nen Steal von über 50 % gehabt...

    Kann man sich bei nem VPS bei dem Wert beschweren ?

    Eine Überbuchung mit Faktor 2 (bis zu 50% Steal) ist doch normal?

    Also AWS macht das meines Wissens bei EC2 auch so mit Faktor 2... ich persönlich kalkuliere bei günstigen Anbietern wie Netcup, H3tzner, Cont4abo, Strat0 und Co. sogar noch mehr ein... das ist halt einfach so. Es sind halt sehr günstige shared Ressourcen - nur deswegen sind sie so günstig.

    Siehe "Apache ignoring [headers] when sending a 304", wo sich (weiter oben) auch ein Verweis auf RFC 2616, Sektion 10.3.5 ("304 Not Modified") findet; ultimativ wird dies im Apache-Quellcode geregelt. Wie sich andere Webserver verhalten, hängt von deren RFC-Interpretation ab…

    Also kommt es auf den Use Case an. Und als Cache Validator, wie in meinem Fall, sollen oder dürfen also gar keine derartigen Header zurückkommen, um Inkonsistenzen zu vermeiden.


    Perfekt, danke :)

    Geht es nur um 304 oder um 3xx und dann keine HSTS-Header?

    Ich konnte das Verhalten nur beim Statuscode 304 beobachten. Und das aber sowohl bei Apache2 als auch nginx.


    Ich habe auch schon Seiten gesehen, wo die Header beim Statuscode 304 immer mitkommen. Aber by default machen es die Server, mit denen ich primär arbeite, halt nicht. Und das macht mich etwas stutzig.

    Grade bei HSTS hinterfrage ich da halt wie gesagt auch die Sinnhaftigkeit - der Browser hat zumindest das HSTS ja durch den zwingend vorausgegangenen Request mit 200er Antwort bekommen und gespeichert... komische Angelegenheit. Ich versuche da auch nochmal zu recherchieren. :/

    Was ist denn der Sinn vom HSTS-Header?


    Also sende ihn einfach.

    Ja moment... Apache2 und nginx senden ihn by default auch nicht beim Statuscode 304 und ich wüsste aus dem Stehgreif auch nicht, wie ich sie konfigurieren müsste, damit sie es tun.


    Das Ding ist - einem Statuscode 304 (cached) muss ja de facto ein 200er vorausgegangen sein und der Browser muss den HSTS Eintrag gespeichert haben...

    Und theoretisch müsste sich ein Browser ja auch merken, mit welchen Headern er einen gecachten Eintrag abgerufen hat. Aber tut er das auch? :/