Beiträge von Steini

    Zitat
    Arrival-Date: Sun, 1 Dec 2019 06:47:04 +0100 (CET)

    Also, wenn seit dann stündlich Mails verschickt werden...

    Zitat
    • Wer nun noch Ratschläge für das weitere Vorgehen hat, immer her damit

    Schau mal welche logfile in deiner msmtprc eingestellt ist und schau da nach, ob was brauchbares drinsteht. Den Ort der Konfigurationsfile bekommst du mit "msmtp --version" angezeigt, sollte eigentlich "etc/msmtprc" sein.

    Gute Kandidaten zum nachschauen sind:

    - /var/log/msmtp.log

    - /var/log/mail.log

    - /var/log/mail.err

    Wenn die alle nicht existieren wird vielleicht nach syslog geloggt:

    - /var/log/syslog

    Ob noch was in der postfix queue war, weiß ich nicht.

    Wird diese gelöscht, bei restart von apache oder bleibt sie erhalten?

    postfix ist nicht apache.

    Apache ist ein Webserver und liefert Webseiten aus

    Postfix ist ein Mail Transfer Agent und "transferiert" mails.


    Wenn du mit mail() eine Mail "verschickst", wird sie in eine Datei geschrieben, die Postfix dann übernimmt und verarbeitet. Die postfix queue kannst du wie schon von H6G geschrieben mit dem Kommandozeilenprogramm "mailq" auslesen. Poste einfach mal die Ausgabe davon.


    Vielleicht wäre auch das PHP Script mit dem du Mails versandt hast ganz praktisch, dann könnte man versuchen das Problem nachzustellen.


    Received: from localhost (v##.megasrv.de [#.#.#.#])
    by mx2f83.netcup.net (Postfix) with ESMTPSA id 8D51182564
    for <##@gmx.de>; Thu, 9 Jan 2020 11:04:17 +0100 (CET)
    Received-SPF: pass (mx2f83: connection is authenticated)


    Bist du sicher, dass du das das Script auf dem Rootserver ausgeführt hast und nicht auf dem Webhosting? Das sieht mir nämlich hier anders aus.

    Wenn ich bedenke, dass Microsoft normalerweise keinerlei Mails annimmt und jetzt deine "falschen" mails von einem Rootserver mit "Ubuntu Standardinstallation" ankommen sollen, falle ich vom Glauben ab.

    Danke für den Hinweis.

    Ich habe Apache auf dem root-Server allerdings schon seit heute morgen heruntergefahren.

    Du bist etwas homöopathisch mit deinen Informationen: Solange anonymisiert, bis keine Substanz mehr enthalten ist ..


    Wie hat dein Script denn die Mails versandt? Die mail() funktion benutzt ja standardmäßig sendmail, das bei installiertem Postfix die mails per Postfix verschickt. War denn jetzt noch was in der Postfix quene?

    Im E-Mail Quelltext wird angegeben, dass die E-Mails zwar von meinem root-Server kommen aber über die domain des anderen Pakets weitergeleitet worden.(Warum eigentlich?)

    Wäre es möglich, dass du einen der Mailheader mal hier postest?

    Mit den Informationen die du bisher gepostet hast wird man zum gleichen Ergebnis kommen wie du: Wenn das Problem am Netcup-Server liegt muss der Support weiterhelfen.

    Wenn allerdings dein Server stündlich die Mails zum Netcupserver weiterleitet, liegts an dir. Du kannst ja auch mal deinen Postfix stoppen und schauen ob der Mailversand aufhört. Oder wenn sonst nicht so viel Läuft, einfach mal testweise einen Server ganz herunterfahren.

    Könnte das beschriebene Verhalten mit der HDD zusammenhängen oder gibt es andere denkbare Gründe dafür?

    [...]
    Sollte nun das o.g. Verhalten in der HDD begründet sein, kommt halt ne billige 20€ SSD in meinen Rechner, die kann man eh immer mal gebrauchen.

    Völlig unabhängig von dem Problem ist eine SSD eine gute Idee. Das Problem an sich deutet meiner Meinung nach aber eher auf einen defekten RAM hin. Im Bootmanager von Ubuntu solltest du eigentlich einen memtest auswählen können, den kannst du einfach mal laufen lassen.

    was hat das mit dem server zu tun?!

    Verstehe nicht, nur ffmpeg und nichts in Bezug auf CPU..

    Entweder verstehst du es nicht, oder wir verstehen es nicht. Es klingt so, als würdest du ffmpeg mit Softwarekodierung auf dem Server ausführen. Video(de)kodierung ist etwas, das grundsätzlich erst mal sehr Prozessorlastig ist. Deshalb wird das oftmals durch dedizierte Hardware unterstützt: die Hardwarekodierung ist dabei erheblich schneller, als das kodieren in Software (auf der CPU). Es kann sein, dass dein Computer Zuhause dafür Hardwareunterstütztung hat, der Server bei Netcup aber nicht. (für manche Codecs müssen Lizenzgebühren bezahlt werden wenn die entsprechende Hardwareunterstützung haben, sowas wird verständlicherweise bei ServerCPUs nicht gemacht)

    Dazu kommt, dass du nur zwei virtuelle, relativ langsame CPU Kerne hast auf dem Server und Zuhause vermutlich deutlich stärkere. Also eigentlich wundert sich hier niemand, dass auf einem vServer ffmpeg langsam ist und die Vorposter haben sachte versucht dich mit gezielten Fragen (zum Beispiel nach den CPU instruktionen, die auf entsprechende Hardwarebeschleunigung hinweisen) drauf zu bringen, dass das Erwartbar ist. Dabei aber noch ein Türchen offengelassen, falls man die Frage doch falsch verstanden hat (könnte ja sein, dass du Zuhause kodierst und der Server hier die Daten nur weiterleitet/verteilt und es dabei zum fps-Einbruch kommt).

    Ich habe ein Selbstbausystem (Damals fast 1:1 nach einem Vorschlag gebaut von https://www.technikaffe.de/anl…stplatten_auf_einen_blick ) mit Openmediavault (mittlerweile Version 5 unter Debian10). Bietet große Flexibilität, die aber die wenigsten benötigen. Historisch läuft da noch ein VDR drauf, der das lineare Fernsehen digitalisiert und aufnimmt/verteilt, ein paar Docker container und krams fürs lokale Netz (git, openHAB, wiki, etc...) Also eigentlich ist das ein Heimserver mit viel Speicherplatz.

    Ich weiß aber nicht, ob ich das System heute nochmal so aufsetzen würde. Mittlerweile mache ich mir schon mehr Sorgen um meine Daten und würde vielleicht lieber so eine Fertigbox nehmen, die nichts anderes macht als Daten sicher zu speichern und sich ums Backup kümmert. Den rest dann auf einen extra Rechner, im Heimnetz ist eigentlich so wenig Last, dass das auch alles von einem RPi bewältigt werden kann.


    Zum Thema RAM: Wenn das NAS viel beansprucht wird (im Normalfall Zuhause ja nicht) bzw, wenn man ZFS als Dateisystem benutzt (relativ RAM hungrig) dann gilt als Richtwert: 1GB Ram / 1 TB Festplattenspeicherplatz. (https://www.freenas.org/hardware-requirements/). Das skaliert aber nicht so linear, für ZFS eher minimum 8GB und dann reichen 32GB auch jenseits der 100 TB. Mehr halte ich für deutlich(!) übertrieben (wenn nicht noch andere Anwendungen laufen, die viel Ram benötigen). Siehe auch: https://bsdmag.org/a-complete-…ractices-by-josh-paetzel/

    Udemy Kurs "Automate the Boring Stuff with Python Programming" kostenlos

    IMHO nein.

    Ich glaube gelesen zu haben, daß es die meisten, wenn nicht alle dieser Kurse sonstwo auch Kostenfrei gibt.

    Ja, das Buch ist unter Creative Commons freigegeben: https://automatetheboringstuff.com/

    Wie alle (lesenswerten!) Bücher von Al Sweigart: https://inventwithpython.com/

    Seine Videos gibts im Youtube Kanal: https://www.youtube.com/user/Albert10110


    Für das Gebotene kann man zwar ruhig auch mal etwas zahlen, wobei ich die Spendenvariante bevorzuge, da weiß ich dass das Geld "beim richtigen" ankommt: https://inventwithpython.com/#donate

    mal abgesehen muss es ja auch auf Smartphones laufen

    Rein aus Interesse: Welches Smartphone/System unterstützt VPN via TCP? Habe es nur mal mit Android versucht, damals ging das nicht.

    udptunnel kann ja performancemäßig kaum schlechter sein als openvpn? ;) Die Intention zum Entwickeln desselben war ja die Videokonferenz, sollte also nicht soo übel sein

    Du kannst versuchen die "reneg-sec 0" zu setzen.


    Zitat

    –reneg-sec n Renegotiate data channel key after n seconds (default=3600).

    Das wäre aber nur die Lösung, wenn die Verbindung nach einer Stunde abreißt, nicht nach einer Minute :/

    Sollte ich das in Zukunft mal machen müssen, würde ich aber updtunnel testen und wireguard verwenden ;)

    Du kannst nginx als proxy für deinen VPN einrichten: http://nginx.org/en/docs/stream/ngx_stream_core_module.html (wenn es sowieso schon läuft, sonst ist wohl sshl besser: http://www.rutschle.net/tech/sslh/README.html )

    Aber das ist ja anscheinend nicht das Problem, sondern dass Tunnelblick die Verbindung nach einiger Zeit abbricht(?). Hast du denn Timeouts/KeepAlives gesetzt? Eine solche Konfiguration habe ich bisher noch nicht gemacht, was sagen denn die Logs vom Tunnelblick/Server?


    Zitat

    Gibt es eigentlich neben OpenVPN noch andere VPN Lösungen mit TCP Verbindung, die besser auf macOS integrierbar sind bzw. besser laufen

    Wireguard mit updtunnel: http://manpages.ubuntu.com/man…ial/man1/udptunnel.1.html

    Lösung von hier: https://news.ycombinator.com/item?id=17846891

    wollen wir das hier weiterführen

    Dann mache ich hier mit offtopic weiter :saint:


    Wenn du kein Webhosting hast, kann ich das uneingeschränkt empfehlen

    Man sollte sich bei Cloudflare allerdings bewusst sein, dass man eventuell schnell umziehen muss. Es ist ein amerikanisches Startup und die wollen per Definition an die Börse und fett Geld in möglichst kurzer Zeit machen. Und das Öl des 21 Jahrhunderts sind nunmal Daten. CF weiß wo wir surfen (weil ja alle 1.1.1.1 für DNS benutzen) und "managen" all unseren Trafik. Sie wissen also fast mehr über jeden von uns als Google, und es gibt kein opt-out. Momentan verwalten die ~20 Millionen Domains und machen pro Halbjahr ~40 Millionen Verlust. Sie haben ~75k zahlende Nutzer, der Rest zahlt mit Daten. Sie sind erst vor ein paar Monaten an die Börse gegangen, haben also etwas Schonfrist, bald werden sie aber Geld verdienen müssen. Das Gute an CF ist, dass wenn die mal down sind sie das halbe Internet mit runterziehen. Too big to fail also, was kann da schon schief gehen.

    https://twitter.com/PowerDNS_B…/1073641249192726528?s=09

    https://metro.co.uk/2019/07/02…luding-detector-10103471/


    Wenn Cloudflare (oder die US Behörden) entscheiden dass jemand böse ist, ist das Internet praktisch weg (Wie es scheint können Leute aus dem Iran die Webseiten zum Beispiel gerade nicht benutzen). CF ist kostenlos, komfortabel und am schnellsten. Man sollte sich aber bewusst sein, dass sie auch Nachteile haben.

    Gestern Vormittag erhielt ich (auf meinem Ipad) plötzlich von einer meiner Mailadressen sehr viele "Undelivered Mail Returned to Sender" Fehlermails vom Netcup-Server, ohne Mails versendet zu haben.

    Das kann, muss aber nicht auf ein Problem bei dir hindeuten. Häufig werden Mail Absender gefälscht, die Fehlermeldungen kommen dann aber an die echte Mailadresse zurück. Um das auszuschließen müsste man die gesamte Mail sehen um herauszubekommen, ob die ursprüngliche Mail von einem deiner Geräte kam.

    Darf man .de Domains ohne deutschen Wohnsitz bestellen und auf dem default Netcup Owner lassen?

    Für Kunden die nicht aus Deutschland kommen, stellen wir kostenfrei einen Admin-C aus Deutschland bereit, um Registrierung [sic] zu ermöglichen.

    Wird von Netcup so angeboten. Die Richtlinien verlangen:

    Lokaler Kontakt erforderlich.

    Laut Denic spricht auch nichts gegen einen Domaininhaber ohne deutschen Wohnsitz, man muss nur seine Post in Deutschland zustellen lassen:

    § 3 Pflichten des Domaininhabers

    [...]

    (4) Hat der Domaininhaber seinen Sitz nicht in Deutschland, so benennt er auf eine entsprechende Aufforderung durch DENIC binnen zwei Wochen einen in Deutschland ansässigen Zustellungsbevollmächtigten, dem dieselben Befugnisse zukommen wie einem Zustellungsbevollmächtigten i. S. v. § 184 der Zivilprozessordnung.

    [...]

    Kann Unbound als eigenständiger Nameserver wie BIND, PowerDNS etc. laufen? Dachte ist nur ein DNS-Resolver und -Cache für den lokalen PC/Server.

    Tatsächlich kann es das nicht, das war Quark von mir :wacko:. Es gäbe NSD von den gleichen Entwicklern dazu: https://calomel.org/nsd_dns.html

    + http://troubleshooters.com/linux/unbound_nsd/nsd.htm

    Aber auch hier ist der Grundgedanke (wenn ich ihn den richtig interpretiere), dass das nicht auf dem gleichen Rechner läuft. Mir ist auch der Sinn noch nicht ganz klar, versprichst du dir da Geschwindigkeitsvorteile oder mehr Funktionalität, oder .. ?


    An die Lösung von H6G hätte ich nicht gedacht, gefällt mir!

    Könnte vielleicht laufen, nur nicht beide auf dem gleichen Port. Aber obs Sinn macht? Insbesondere, wenn unbound auf einem nicht-standard port läuft? Da hätte ich Angst Respekt vor, bei der Konfiguration was zu verhauen. Vermutlich würde ich sowas in einen Docker Container packen.

    Wieso nicht alles mit unbound machen?


    Wo ich schon dabei bin lasse ich gleich noch einen Link da ;)

    https://calomel.org/unbound_dns.html

    Ich schmeisse die jetzt einfach mal in den Ring: UrBackup

    Als ich das das letze mal angeschaut hatte sah das zwar einfach und nutzerfreundlich aus, sie konnten die Backups aber noch nicht verschlüsseln. War für mich deshalb keine Option zum Speichern in der Wolke. Für einen privaten Rechner/NAS mag das durchaus gehen.