Beiträge von Akay

    Vielen Dank euch.


    Ich hatte vorher ZoneMinder genutzt und dafür ein Plugin zum sofortigen Upload eines Videos geschrieben. Wenn ich das bei Frigate hinbekäme, würde ich das sogar bevorzugen. PBS bei netcup würde ich dann aber trotzdem für alle anderen VMs nutzen. Die haben alle kaum etwas (Home Assistant, Nginx Proxy Manager, Gotify und andere kleine VMs).


    Ich dachte nur, es sei wesentlich einfacher und schneller PBS bei netcup für alles zu hosten. Zwei PBS kommen für mich aktuell leider aus Kostengründen nicht in Frage. An sich aber eine sehr gute Idee.

    Danke dir!

    Die größte VM mit derzeit 600 GB ist Frigate (Videoüberwachung). Die 600 GB haben sich in ca. drei Monaten angehäuft. Diesen Tage lang abzuschalten (während Upload) kommt leider nicht in Frage.

    Meine Uploadgeschwindigkeit beträgt 50 Mbps.

    Ich könnte noch meinen alten Laptop als Proxmox PBS nutzen, aber dann hätte ich trotzdem gerne ein offsite Backup.

    Hallo,


    ich habe ein paar Clients Zuhause, die ich auf ein lokales QNAP NAS backuppe und von dort aus wird alles mit Google Drive synchronisiert. Bin damit an sich zufrieden. Nun habe ich auch einen Proxmox-Server Zuhause mit ein paar Containern. Den QNAP konnte ich den als Laufwerk in Proxmox einbinden und nutze da einen Freigabeordner als Backup-Ziel.


    Proxmox VE's Backup-Möglichkeit bietet allerdings keine inkrementellen Backups an. Deshalb habe ich täglich Voll-Backups, die immer wieder aufs Neue auf dem QNAP landen und dann zu Google Drive hochgeladen werden. Mein Internet ist somit andauernd ausgelastet.


    Um dieses Problem zu lösen, soll man wohl auf Proxmox PBS umsteigen, welches inkrementelle Backups ermöglicht. Proxmox VE Integration ist wohl auch sehr einfach.


    Ich überlege nun, ob ich Proxmox PBS auf einem vServer oder rootServer bei netcup betreiben kann? Ich würde meine Clients nach wie vor auf dem QNAP backuppen, aber den lokalen Proxmox Server dann auf den Proxmox PBS bei netcup. Das erste Backup würde lange dauern, aber die Inkremente dann nicht mehr. Geht das überhaupt?


    Vielen Dank.

    Ich habe tatsächlich aber tausende UFW-Regeln. Seit Jahren nutze ich dieses selbst geschriebene Script, welches TOR-IPs zieht und alle einzeln blockt. Dieses Script steht natürlich noch auf meiner To Do. IPset schaue ich mir noch an.


    Bei diesem Server geht es um Debian. Aber da es einen allgemeinen Statement zu allen NC-Servern gab, wollte ich damit sagen, dass auch mein zweiter Server eth0 hat (der aber Ubuntu ist).


    Code
    root@myserver:~/scripts# ping 2a03:4000:10::3
    PING 2a03:4000:10::3(2a03:4000:10::3) 56 data bytes
    ^C
    --- 2a03:4000:10::3 ping statistics ---
    14 packets transmitted, 0 received, 100% packet loss, time 13304ms


    Server wurde seither zigfach neu gestartet.



    Die Domain lässt sich hierüber über IPv6 anpingen: http://www.ipv6now.com.au/pingme.php



    Hat es gereicht, ufw zu disablen? Weil es ja nur ein Framework für iptables ist. Muss man iptables selbst auch noch leeren?

    Mein anderer Ubuntu-Server hat auch eth0. Sind beides root server.



    Im SCP:




    Bei cUrl kam bisher immer sofort was. Habe aber nicht drauf geachtet. Vielleicht nutzt cUrl einfach direkt IPv4.

    Fortsetzung letzter Output



    Alles ziemlich kryptisch.

    Fortsetzung letzter Output


    Code
    root@myserver:~# ip -6 route show
    ::1 dev lo proto kernel metric 256 pref medium
    2a03:4000:2:f093::/64 dev eth0 proto kernel metric 256 pref medium
    fe80::/64 dev eth0 proto kernel metric 256 pref medium
    default via fe80::1 dev eth0 metric 1024 onlink pref medium


    Code
    root@myserver:~# ping -6 google.com
    PING google.com(fra24s06-in-x0e.1e100.net (2a00:1450:4001:829::200e)) 56 data bytes
    --- google.com ping statistics ---
    63 packets transmitted, 0 received, 100% packet loss, time 63473ms

    Nach der ersten Zeile kommt lange nichts. Muss dann abbrechen, wonach dann die restlichen Infos (ping statistics) kommen.


    cUrl funktioniert einwandfrei.




    /root/.wget-hsts:

    Code
    # HSTS 1.0 Known Hosts database for GNU Wget.
    # Edit at your own risk.
    # <hostname>    <port>  <incl. subdomains>      <created>       <max-age>
    www.servercontrolpanel.de       0       1       1649764702      31536000
    en.wikipedia.org        0       1       1661474718      106384710
    github.com      0       1       1658690700      31536000
    myserver.de 0       1       1658573118      63072000
    codeload.github.com     0       0       1658690700      31536000

    Hi,


    auf einem der Debian-Server funktioniert wget entweder nicht oder nur extrem langsam. Scheint so, als würde dies nur passieren, wenn IPv6 aufgelöst werden soll. Denn bei IPv6 kommt "failed", wonach die IPv4-Adresse erfolgreich aufgelöst und die Datei heruntergeladen wird.



    Das passiert übrigens seit dem letzten großen Upgrade von Debian.


    Welche Logs oder Configs bräuchtet ihr, um zu helfen?


    Vielen Dank.

    Hallo,


    ist es nach wie vor so, dass man Abstriche bei .htaccess-Dateien machen muss, wenn man auf HTTP/2 umsteigen möchte? Um im Apache2 HTTP/2 zu aktivieren, muss man auf FPM wechseln und FPM unterstützt(e) .htaccess nicht. Hat sich da irgendwas geändert? Finde online kaum erfreuliche Nachrichten aus den letzten fünf Jahren. Gibt es da Workarounds, HTTP/2 und .htaccess (z.B. für Nextcloud und Wordpress) gleichzeitig zu nutzen?


    Quelle:

    https://stackoverflow.com/questions/38190279/can-i-override-php-setting-in-htaccess-when-using-php-fpm



    Vielen Dank.

    Hallo,


    gestern ging es um meinen eigenen Server. Heute um einen anderen, der ebenfalls bei Netcup ist. Die Domain ist bei webgo. Dort habe ich folgende DNS-Einträge hinterlegt:

    2022-07-12 11_44_18-Window.png


    Der AAAA-Record wurde als Wildcard gestern hinterlegt, der Rest schon vor einigen Wochen. Nur wenn ich einen DNSChecker für den AAAA-Record bediene, wird dieser weltweit nirgendswo aufgelöst. Die IPv6 wird nicht gesehen, ein anderes IPv6-Ping-Tool sagt "unknown host". Die IPv6-Adresse habe ich aus dem Configfile aus /etc/network/interfaces.d/dateinamevergessen.


    2022-07-12 11_54_31-Window.png


    Weiß hier jemand zu helfen? Vielen Dank.

    Ich habe das alles selbst gebastelt.


    Wenn deine Cam RTSP unterstützt, kannst du auf deinem Raspberry Pi motion oder zoneminder installieren. Falls du noch einen Rechner / RPI hast, kannst du alles auch per HomeAssistant automatisieren. Mein Homeassistant checkt, ob mein Handy Zuhause ist. Wenn nein, schaltet er den Pricay Mode des TAPO C200 Cam aus, also Cam an. Bei jeder Bewegung erhalte ich eine Push-Benachrichtigung auf mein Handy und motion filmt sowieso bei jeder Bewegung. Habe noch ein Script geschrieben, der gespeicherte Videos automatisch in meine eigene Cloud hochlädt und sie nach erfolgreichem Upload vom Raspberry Pi löscht. So manches kann Zoneminder aber auch von alleine. ^^