Beiträge von Steini

    Vorhin zwei DNS-Einträge geändert; nun sind ca. 50% aller Einträge für die Domäne ungültig (zufälligerweise betrifft das fast alle TLSA-Einträge); DNSSEC-Flagge ist nach wie vor gesetzt. Nachdem offensichtlich entsprechende Probleme mit dem DNS in den letzten Tagen häufiger aufgetreten sind (hat sonst noch jemand ein oder mehrere Tickets hierzu offen?), frage ich mich, ob und ab wann mit einem Eintrag auf https://www.netcup-status.de/ dazu gerechnet werden kann…

    Der Support hat sich meinem Problem gerade angenommen und es scheint gelöst. Das Problem war natürlich ich, auch wenn die Netcup Fehlermeldung nicht wirklich hilfreich war:

    Ich hatte für die Subdomain "mail" noch einen alten TLSA Eintrag "*._tcp.mail", den ich in meiner Unordnung (kann man das DNS Panel irgendwie ordentlich bekommen?) nicht bemerkt habe. Dann habe ich einen CNAME Eintrag auch mit "*._tcp.mail" zur Hauptdomain gelegt, wo mittlerweile alle TLSA Einträge stehen.

    Es ist aber natürlich nicht zulässig einen CNAME Eintrag neben einem normalen zu haben (Du sollst keine anderen Götter neben mir haben ..).

    Deshalb konnte die Zone nicht mehr per DNSSEC signiert werden und das wurde automatisch abgeschaltet (natürlich ohne Meldung). Die Fehlermeldung, dass man 24h waren muss vor dem wieder aktivieren hat natürlich nicht besonders geholfen, den Fehler zu finden. Nach Entfernen des manuellen TLSA Eintrages konnte ich DNSSEC wieder aktivieren. Es wird noch alles mit "unknown" angezeigt, aber ich bin zuversichtlich, dass sich das bald gibt.


    Der Fehler lag also klar auf meiner Seite, auch wenn ich mir eine etwas Aussagekräftigere Fehlermeldung gewünscht hätte (oder zumindest ein: "es könnte auch an einem Fehler in den Einträgen liegen")

    Habe ähnliche Erfahrungen gemacht, für eine Servermigration nutze ich mittlerweile das Rettungssystem und kopiere via dd. Eigentlich hatte ich vor in Zukunft aus einem Backup neu aufzubauen, dann ist das gleich nochmal ein live Test, ob das Backup/Restore funktioniert. Aber so ist das mit den guten Vorsätzen: Vielleicht im nächsten Jahr..


    Ich stimme dir zu, dass einer der großen Nachteile bei Netcup ist, dass man nicht "einfach" (ein bis zwei klick GUI) auf einen neuen vServer umziehen kann. Ich vermute aber mal, dass das so gewollt ist, damit Leute lieber noch etwas länger den alten Server benutzen und einen Umzug scheuen (zumindest bei mir klappt das)

    Im API Log steht nichts zu der Domain, das war es also nicht. Aber gibt ja hier im Forum aktuell auch andere mit dem Problem :/ Ich kann DNSSEC zumindest immer noch nicht aktivieren und die Einträge werden als Status "unknown" angezeigt...

    60 teilnehmer ist viel klar aber wenn nur 15 - 20 mit einem Stream aktiv sind dann finde ich 500 - 800 MBIT schon sehr viel

    Video braucht halt nun mal Bandbreite ;)

    Laut https://community.jitsi.org/t/…dwidth-requirements/11791 braucht bei 720p per simucast jeder video user outgoing mindestens 3,15Mbps und eingangsseitig für N Videonutzer mindestens (2,5 + N * 0,15) Mbps. Bei 20 Leuten mit Stream also 5,5 MBit.

    Der Server bekommt somit von 20 Leuten je 3,15 MBit sind rund 60 MBit und sendet 5,5, MBit an 60 User, also insgesamt 330 MBit. Zusammen sind das knapp 400 MBit als absolutes Minimum für die Videoübertragung. Und dann kommt ja noch ein bisschen was drauf an overhead und Ton, etc.. Klingt für mich also schon nach der richtigen Größenordnung.

    Steini: Welche TLD bei Dir?


    Bei mir tritt dieser Bug eigentlich immer nur über die API auf. Verwendest Du die eventuell auch?

    Ist meine Haupt ".de" domain. Die API verwende ich zwar, in diesem Fall habe ich die Änderung aber im Panel gemacht. Es könnte aber sein, dass fast Zeitgleich eine Änderung über die API erfolgt ist. Das könnte ich noch mal überprüfen :/

    Kennt diesen Fehler im CCP jemand?

    (Ich habe DNSSEC aber gar nicht deaktiviert. Ticket ist schon offen.)

    Ist mir gerade auch passiert. Änderungen am TLSA record gemacht, danach war DNSSEC deaktiviert. Natürlich kann ich nicht 100% ausschließen, dass ich nicht aus versehen auf den Haken gekommen bin, aber sowas ist mir eigentlich schon lange nicht mehr passiert.. Auf jeden Fall wird es jetzt als Deaktiviert angezeigt und es kommt die Meldung, dass ich 24 Stunden warten muss bevor es wieder aktiviert werden kann :cursing:

    (Wo deine Meldung mit 1h her kam ist mir allerdings Schleierhaft. Hier steht auch, man müsse 24h warten wegen caching von Nameservern :thumbdown:

    https://www.netcup-wiki.de/wik…_Nameservern_deaktivieren

    [...] empfiehlt sich ggf. zwecks Minimierung der DNS-Einträge [...]

    Vielen Dank! Funktioniert super. Muss aber unbedingt dran denken das ordentlich zu dokumentieren. Bei meinem Gewurschtel weiß ich in ein paar Wochen schon nicht mehr, was ich da wieso gemacht habe und muss mich erst wieder ewig einarbeiten :/

    Und wieder kommt mein Wunsch, im DNS Panel Kommentare anbringen zu können. Alleine schon zum Beschriften, welche Zeile für welches Zertifikat steht...

    Geht es nur mir so oder ist da nicht so die Logik dahinter?

    0,41 -> 0,5; Du willst also aufrunden auf eine Nachkommatselle?

    1,34 -> 1,5; Oh, halt. Du willst aufrunden auf "ganze" 0,5er? Warum auch immer, kann man aber natürlich machen ...

    5,67 -> 5,7; Das verwirrt jetzt wieder.

    Wenn das keiner Logik folgt, willst du vielleicht einfach eine Look-Up-Table machen? :P

    Ja: Magenta Zuhause Hybrid von der Telekom. Der Tarif ist aber veraltet. Wie die Technik dahinter funktioniert weiß ich nicht, aber es sieht wie eine Art VPN aus.

    Das hatte ich auch mal, als bei meiner Adresse nicht mal 16 MBit durch die Leitung gingen. Mit Außenantenne ging das dann echt gut. Musste aber auch den Speedport Hybrid nehmen, damals gab es noch keine Alternative. Das ist mittlerweile glaube ich immer noch so (auch wenn zum Speedport Hybrid noch der Speedport Pro mit Hybridfähigkeit dazu kam)

    Ich habe dann den Speedport als Modem verwendet und hatte hintendran einen OpenWRT Router hängen. Finde ich jetzt nach mehrmaligem Umziehen auch immer noch gut die Lösung, so bleibt mein Netzwerk immer gleich und nur das Modem passt sich an (hier in den USA gerade fand ich es auch etwas scary, dass mein AT&T router komplett in der Cloud hängt. Also man sieht im Webinterface welche Geräte gerade verbunden sind, wieviel Bandbreite die Verbrauchen, etc.. und das WLAN Passwort steht da auch im Klartext und lässt sich ändern. Da schläft es sich mit extra Router schon angenehmer)


    Es gibt da ein auf OpenWRT basierendes Projekt, aber mehr als die Beschreibung kenne ich da auch nicht: https://www.openmptcprouter.com/

    2FA ist doch heutzutage (meistens) super Anwenderfreundlich gelöst. Einloggen, auf dem Hand poppt ein Fenster auf, einmal auf "Genehmigen" drücken und fertig. Ich sehe da kein Problem. Ansonsten gibt man jedem einen FIDO2 Key. Technisch ist das Passwortproblem schon gelöst. Nur haben sich viele Nutzer auf dieses Katastrophe (aus Anwenderfreundlichkeitssicht) gewöhnt und wollen den schmarrn nicht mehr hergeben.

    Alle Passwörter sind im Passwortmanager gespeichert, und als zweiter Faktor Handy oder Hardwarekey. Viel einfacher zu Handhaben als sich zig Passwörter zu merken und dabei noch um Welten sicherer.

    Aber wenn mal ein Anbieter seine Nutzer dazu zwingt ist das Geschrei groß...

    Vielleicht wird das ab Januar besser, wenn auch bei Onlinekäufen 2FA vorgeschrieben ist. Dann wird das langsam "normal".. (nur dass die meisten Banken das mal wieder mit der Implementierung verhunzen).

    Ich habe langsam das Gefühl, der Support möchte sich gar nicht mit diesem Widerspruch auseinandersetzen, dass nach den Logs ein Unterschied zwischen angeblich und tatsächlich verschickten Emails exisitiert.

    Wir sind gerade ziemlich genervt von der Situation. Für uns wird es darauf hinauslaufen, dass wir uns einen anderen Mailprovider suchen, der kein Plesk einsetzt.

    Bei den Supportanfragen sollte unten ein Link sein zur Ticket-Beschwerdestelle. In dem Fall solltest du das mal ausprobieren. Dort schaut sich wirklich jemand das Ticket an und man wird nicht mit Textbausteinen abgespeist (zumindest meine Erfahrung)

    Mal für die Unwissenden oder besser gesagt "auch noch nicht wissenden" hier. Unter Debian Buster / Raspbian Buster muss man Wireguard mittlerweile aus den Buster Backports ziehen. Die Version im Unstable Zweig wird nicht mehr gepflegt.

    Das war tatsächlich neu für mich und wollte ich gleich umstellen. Aber siehe da, ich hatte mal nachgedacht beim Einrichten ;)

    Andererseits kann ich bei mir nicht nachvollziehen, dass die Version aus unstable so veraltet wäre?

    Wenn ich die offizielle Anleitung richtig verstehe (https://www.wireguard.com/install/) wird die aktuelle Version in Bullseye gepflegt (testing). Auch unstable (sid) scheint die neueste Version zu beherbergen. Nur ältere Versionen (die meisten werden wohl Buster verwenden(?)) sollen Backports verwenden. Aber es spricht ja auch nichts dagegen die Bullseye version zu nehmen, wenn man testing/unstable repos sowieso schon eingerichtet hat. Oder habe ich da was falsch verstanden? Zumindest ist in unstable eine neuere Version als in den buster-backports

    Nun ist mir aufgefallen, dass ja nicht nur die Nutzerdaten Backup-würdig sind, sondern auch diverse Configs. Das Relevante in /etc zu finden ist leicht. Aber was sollte ich noch mit nehmen? In /var/lib scheint einiges enthalten zu sein, was man nicht verlieren will. Welche anderen typischen Verzeichnisse gibt es, in denen Daten landen?

    In /var/lib liegen bei mir nur libs, nichts Backupwürdiges. Hängt aber immer vom System ab, das kennst nur du ;)

    Ich sichere: /root, /home, /etc, /var/www, /var/vmail und habe (bisher?) nichts vermisst. Dazu kommen noch die exportierten Datenbanken und die Liste aller installierten Pakete.

    also (m)eine Freundin müsste aus ungefähr folgenden Daten ein Diagramm wie oben dargestellt herstellen, aber wir haben null Ahnung wie Sie hat Excel, ich LibreOffice.

    Ich mache sowas professionell und nutze dafür Igor Pro: https://www.wavemetrics.com/products/igorpro

    Für etwas einmaliges ist das wohl ziemlich Overkill, da auch eine ordentliche Lernkurve mit verbunden ist. Wenn es professionell aussehen muss(?) bekommt man das aber mit der 30 Tage kostenlos Version und der sehr(!) guten Einführung und Dokumentation hin (nur Englisch). Der 'schnellste' Weg ist das sicher nicht und lohnt sich nur, wenn man auch in Zukunft damit arbeitet.

    Als kleines Beispiel:

    Code
    •Make/N=10 a=x, b=2*x, c=abs(x-5)
    •Display a,b,c
    •ModifyGraph mode=5,hbFill=3,toMode=2,rgb(b)=(1,4,52428),rgb(c)=(1,52428,26586)

    Die erste Zeile erstellt Beispieldaten (hier würdest du deine Daten importieren. In dem Beispiel sind die Daten 10 Zeilen lang. a geht von 0-10, b von 0-20 und c von -5 bis 0 und wieder -5. Die zweite Zeile erstellt einen Graphen mit den 3 Kurven. Die dritte macht die Magie. Man muss die Kommandozeile nicht lernen, sondern kann sich auch alles im GUI zusammenklicken. Nur mal so als kleines Beispiel das Resultat im Anhang

    Graph0.pdf


    Meine Studenten machen sowas mit Python (numpy + matplotlib). Das gute an Python ist, dass die Community riesig ist und fast alle Fragestellungen mal irgendwo im Internet breitgetreten wurden (abgesehen davon, dass es kostenlos ist). Ohne Kommandozeile geht da aber nichts ;)

    Mach doch ne CSV draus, schieb das mit nem kleinen Python3 Script in ne MySQL DB und zapf dann Grafana an. Damit sollte es doch spielend einfach gehen.

    So ein Vorgehen erinnert mich an einen alten Prof, der immer alles mit Spice gemacht hat, weil er sich in das neumodische Zeugs (Matlab und co) nicht einarbeiten wollte. Auch in Spice kann man beliebige Übertragungsfunktionen definieren, "simulieren" und plotten. Sinnvoll ist das nicht, aber gehen tuts ^^

    Es gibt für fast jede Aufgabe das richtige Tool. Aber niemand beherrscht alle Tools. Das führt am Ende dazu, dass man ein (paar wenige) Tools perfekt beherrscht und damit alles macht, ob es nun Sinnvoll ist oder nicht.

    Oh Mann, ich dachte die Amiland Burger wären Reich(haltig), aber die Deutschen Burger müssen mittlerweile ja Reicht sein bei dem System, wenn man nach meinen Mails geht. Wieso kommt sowas denn immer noch durch den Spamfilter *grml* (OK, war als Spam getagged, aber nicht hoch genug um gleich abgewiesen zu werden ..)

    Hatten wir hier im Forum nicht sogar mal jemanden, der "professionell" (Im Sinne von "Verdient damit sein Geld") solche Einkaufsbots auf Netcupservern betreibt? In sofern kann ich die Reaktion von Ebay schon ein bisschen nachvollziehen :/

    Auch wenn es vermutlich bessere Methoden gibt gegen die Bots. Ist halt immer ein Katz-und-Maus Spiel ..

    Hast du das test.php Script mal für mich?

    ohne Gewähr

    Bei meinem RS2000 G8 sieht das schlechter aus. Man müsste also eher auf einen G9 o.ä. gehen um besser zu werden (oder auf einen kaum belegten host zu hoffen):

    Code
    Laufzeit gesamt: 4139ms pro Zyklus(Schnitt): 0.275933ms

    Aber wie mache ich das wenn ich ein RSA und ein ECDSA Zertifikate habe? Zwei Dane Records?

    Ja.

    Ich benutze mittlerweile ncdapi.sh (https://github.com/linux-insideDE/ncdapi Achtung: Unmaintained!) und überschreibe den TLSA record einfach täglich, unabhängig davon ob das Zertifikat geändert wurde (kostet ja nix?). Würde ich das neu und ordentlich machen, dann wäre das einfach ein post hook statt des cronjobs. Aber als ich das eingerichtet habe war das in meinem Setup noch nicht möglich.

    Disclaimer: Das ist Quick'nDirty und nicht für den Produktiveinsatz. Erst Denken dann Copy'n Pasting! Heutzutage als Hook implementieren!