Beiträge von Cictani

    Hi,


    also bei mir unter Ubuntu hat der certbot folgendes hinzugefügt in der Virtualhost Datei:


    Code
    SSLCertificateFile /etc/letsencrypt/live/crazyants.de/fullchain.pem
    SSLCertificateKeyFile /etc/letsencrypt/live/crazyants.de/privkey.pem
    Include /etc/letsencrypt/options-ssl-apache.conf


    Evtl. hilft es.


    wie öffnest Du die Seiten? Gibst Du explizit https:// an, oder gibst nur die domain ein? Wenn Du nur die Domain eingibst, musst Du schauen, dass die Weiterleitung von Port 80 auf 443 auch ordentlich konfiguriert ist.


    mfg


    Andy

    Alles sehr kompliziert, lustig wirds sicher auch, wenn man E-Mails versendet ;).


    Ob man so etwas wie mailgun verwenden darf? I


    ch verwende auch reCaptcha von google, naja wird schon schief gehen xD

    ich mein Open Sans oder Roboto hat wahrscheinlich eh jeder Rechner mit Internetzugang mittlerweile ...

    Also ich habe die nicht lokal und wenn Du sie von deinem Server lädtst, muss sie halt von da auch nochmal geladen werden, selbst wenn der User sie evtl. schon von google fonts geladen hat. Das ist ja der große Vorteil von CDN, da muss der User oft deutlich weniger an Javascript Libs, Fonts, CSS usw. laden.


    Also ich werde die Fonts weiterhin von Google laden.

    Fast keine Website ist rein privat! Und Crawler unterscheiden nicht, die crawlen.


    Da hast Du sicher recht, ich bezog mich mit dem privat auch eher auf Bußgelder vom Staat. Ich bezweifle, dass Behörden großartig gegen die ganzen kleinen Webseiten vorgehen werden, das kostet nur Kohle. Daher sagte ich, dass die Gefahr wohl eher von Abmahnanwälten ausgeht.


    Ähnlich schauts z. B. auch bei Raubkopien aus. Das Herunterladen und teilen in Tauschbörsen ist strafbar, also es kann eine Strafverfolgung durch die Staatsanwaltschaft bis hin zu einem strafrechtlichen Gerichtsurteil kommen. Mir ist allerdings kein Fall bekannt, bei dem jemand, der ein Lied oder einen Film in einer Tauschbörse geteilt hat, strafrechtlich belangt wurde (die Verfahren werden meist eingestellt). Problematisch sind auch in dem Fall die Abmahnanwälte, die teilweise 800 € + (ja man hat das eigentlich gedeckelt, aber die finden halt immer irgendwelche Schlupflöcher, um trotzdem noch viel zu verlangen) Gebühren verlangen.

    Naja, wenn er meine Seite betritt und ich habe keine Datenschutzerklärung und ich logge alle Zugriffe, wie es ja standardmäßig der Fall ist, hat er doch schon einen Grund. Denn die Verletzung betrifft ihn ja sogar selbst.

    Ich denke bei privaten Seiten wird die Gefahr weniger durch Bußgelder bestehen, sondern eher durch Abmahnanwälte, die dir dann die Anwaltskosten aufdrücken und so mit sehr wenig Aufwand viel Kohle scheffeln können.


    Naja wir werden sehen, wie viele Abmahnungen dann ab dem 25.05. hereinflattern ;). Das mit dem Crawlern war übrigens totaler ernst, die betreiben tatsächlich eigene Crawler, um Verstöße auf Shopseiten usw. automatisiert zu finden und dann abmahnen zu können.

    In Österreich zieht man den ganzen Abmahnanwälten etwas die Zähne: https://www.heise.de/newsticke…z-die-Zaehne-4031217.html


    Wie es in Deutschland ablaufen wird, hat dort einer in einem Kommentar schön beschrieben:

    Zitat

    Die (Abmahnanwälte) lassen ja schon crawlen und am 25. wird um 0 Uhr nochmal alles gecrawled was interessant ist.. Um 8 Uhr kommen dann die Studenten und tüten die Abmahnungen dann schön ein, damit sie ja rechtzeitig am 26. beim ‚Kunden‘ sind.

    Der ganze Datenschutzwahn ist doch einfach nur noch unerträglich. Die großen Datenkraken wie Google oder Facebook wird das eh nicht groß jucken und den kleinen Unternehmen macht man mit der ganzen Bürokratie nur das Leben schwer.

    Wobei die Frage ist, ob es überhaupt so viel bringt, wenn ständig nachgefragt wird. Wenn man sich sicher ist, dass der Befehl korrekt ist, wird man dann auch bestätigen. So muss man sich halt vorm erstmaligen Abschicken gut überlegen, was der Befehl macht.

    Wenn Du ngnix verwendest, funktioniert die .htaccess Datei nicht, ich kenne mich mit dem Webhosting nicht aus, aber evtl. kannst Du ja irgendwo anders den Redirekt konfigurieren.

    Solche Fehler werden aber in die access.log geschrieben. Denn der Server funktioniert ja korrekt.


    In error.log kommen nur Fehler rein, die die Funktionsweise des Servers betreffen. Z. B. wenn Du Fehler in einer .htaccess Datei drin hast, oder der Server sich nicht zu einem Proxy verbinden kann usw.


    Also solange die access.log noch da ist, ist doch alles ok.

    Ich schütze meine Dev Seite folgendermaßen:


    Apache Configuration
    AuthType Basic
    AuthName "Wrapper auth"
    AuthBasicProvider file
    AuthUserFile "/etc/apache2/.htpasswd"
    Require valid-user


    Das macht auch, was es soll ;)


    .htaccess Dateien am besten gar nicht mehr verwenden, weil das nur die Performance reduziert, man kann auch alles direkt in die config-Datei des virtual Hosts reinpacken, z. B.:


    Apache Configuration
    <Location />
                     AuthType Basic
                     AuthName "Wrapper auth"
                     AuthBasicProvider file
                     AuthUserFile "/etc/apache2/.htpasswd"
                     Require valid-user
    </Location>

    Was willst Du denn genau mit dem Server machen?


    Es kann sogar gut sein, dass manche Dinge dann schwerer unter Windows sind, weil es weniger Tutorials dazu gibt, oder man gewisse Sachen erst umständlich compiliern muss (genau umgedreht zum Treiberchaos, das man oft mit Desktoplinux hat ;) ).


    Wenn Du wirklich Windows auf dem Server einsetzen willst, dann verwende ein Serverbetriebssystem und kein Desktop OS wie Windows 10.


    Eigentlich ist Linux nicht mal so schwer, wenn man nicht den Anspruch hat, sofort alles begreifen zu wollen, was da so abläuft, zu beliebten Distributionen wie Ubuntu gibt es unzählige Anleitungen zu allen möglichen Sachen.


    Es gibt auch für Linux diverse grafische Konfigurationstools, z. B. Webmin (wobei ich nicht weiß, ob das noch aktuell ist, verwende ich seit Jahre nicht mehr ;) ).

    Freut mich, dass Dir die Seite gefällt. Wenn Du Ameisen mit etwas anderen Augen sehen willst, empfehle ich Dir die Dokumentation "Ameisen - Die heimliche Weltmacht".


    Aber natürlich muss man Ameisen auch nicht überall mögen. Sollten sie sich mal im Haus einnisten, werden sie auch von mir bekämpft ;)

    Dann will ich auch mal kurz vorstellen, was sich so auf den Servern von Netcup von mir befindet ;).


    Derzeit ist es hauptsächlich nur eine Webseite, nämlich mein Blog zum Thema Ameisen- und Ameisenhaltung: crazyants.de:


    In meiner Freizeit arbeite ich noch an einem anderen Projekt, was (wer hätte das gedacht :) ) ebenfalls mit Ameisen zu tun hat: https://github.com/Cictani/antkeeping_info


    Das soll eine Webapp (Django + Angular oder VueJs + jQuery) werden, in der User Daten zu diversen Ameisen eingeben können, z. B. zu Größen, Schwärmzeiten usw. Neben der Weboberfläche soll es auch eine REST-API geben, die es ermöglicht die Daten von anderen Anwendungen aus abzufragen. So werde ich dann meine diversen Infos, die ich auf dem Blog anzeige, z. B. Ameisengrößen usw. über diese REST-API zukünftig mit Daten versorgen.


    Das Ganze wird dann auch auf dem root-Server hier gehostet.