Beiträge von linuxinside

    Hi zusammen,

    mfnalex das Skript funktioniert immer noch. Bei dir tritt nur ein Parsing Error auf, den ich noch abfangen muss. Lass einfach das Debug Flag weg und es kommt zu keinem Fehler mehr.

    Eigentlich möchte ich nur die Zone einer bestehenden Domain duplizieren auf eine/mehrere andere Domain(s).

    Hierfür empfehle ich dir lieber das -b Flag, dass lädt dir die Records + SOA in eine JSON Datei ("backup-DOMAIN.DE-DATUM-UHRZEIT.txt") und für den Restore das -R Flag. Du musst um die Zone auf eine andere Domain zu übertragen in der Datei nur die aktuelle Domain austauschen ("soa.name") und dann den Restore durchführen. Viel Spaß dabei.


    Welche Änderung bei der DNS-API? Habe ich was verpasst?

    Es gab keine grundlegende Änderung bei der API. Vor kurzem sind nur neue RRs hinzugekommen.



    Ein Backup von 10 kleinen Zonen dauerte bei mir gestern rund 30 min. . Sind bei euch die API Requests in letzter Zeit auch viel langsamer geworden?

    wenn das mit dem Daumen drücken nur so einfach wäre. Vorhin habe ich erneut die Branches gemergt. Mal schauen ob die Pull Request bis zum Ende des Monats akzeptiert wurde, dann ist die Netcup API wahrscheinlich die Nummer 55 :S

    mainziman Man braucht halt ein bisschen mehr Daten um die Api zu nutzen;) Im Wiki findest du noch ein paar weitere Infos zu den verschiedenen Parametern [1] [2]


    Übrigens ich habe vorhin das Script aktualisiert, nun kann man u.a. auch den SOA verändern und eine Liste mit allen Domains ausgeben.

    Mittlerweile habe ich die Backup und Restore Funktionen überarbeitet, diese berücksichtigen nun auch den SOA. Die Backup Datei enthält die Daten jetzt im validen JSON-Format.


    Aktuell gibt es noch 2 offene Bugs in der Api. Zum einen werden Records gelöscht wenn man einen Record verändern möchte und DNSSEC wird zwangsweise deaktiviert wenn man spezielle Parameter für den SOA übergibt. Daher empfehle ich die MOD Funktion des Scripts aktuell nicht zu verwenden.

    Die Bugs habe ich bereits Netcup gemeldet und werden erfahrungsgemäß sehr bald gefixt sein.:)

    KB19 Falls es dir hilft, ich habe mal die Zonenaktualisierung untersucht und herausgefunden, dass die Zonen alle 10 min. von den Nameservern neu geladen werden.


    Ich wünsche euch allen ein schönes langes Wochenende.


    muss man hier irgendwelche Parameter definieren oder kann das out-of-the-box verwendet werden?

    out-of-the-box geht aktuell nicht, da im Hauptrepo von acme.sh meine Pull Request noch offen ist. Du kannst dir aber die Datei dns_netcup.sh in deine lokale Installation kopieren. Es wäre nicht schlecht als Parameter deine Zugangsdaten für die Api anzugeben.;)

    Code
    export NC_Apikey="<Apikey>"
    export NC_Apipw="<Apipassword>"
    export NC_CID="<Customernumber>"

    So kannst du ein Zertifikat generieren lassen:

    Code
    acme.sh --issue --dns dns_netcup --dnssleep 900 -d example.com -d www.example.com -d *.example.com

    Aktuell empfehle ich ein dnssleep von mind. 15min., damit die Nameserver genug Zeit haben alle Records zu übernehmen.


    KB19 Ich habe deinen Vorschlag nun umgesetzt, jetzt werden neben Wildcard Zertifikaten auch Third-Level-Domains richtig berücksichtigt.

    KB19 Ja, du hast recht. Third-Level-Domains berücksichtigt mein Algorithmus nicht, das ist mir irgendwie entgangen. Ich glaube das Problem liegt irgendwo hier: :P

    Zitat von Die Kathedrale und der Basar

    Also zeige mir Deinen Code, aber verhülle Deine Datenstrukturen, und ich werde auf ewig im Dunkeln tappen. Zeige mir aber Deine Datenstrukturen und ich werde Deinen Code gar nicht brauchen, denn ich weiß, wie er aussieht.


    Ich schließe mich nur zu gerne dem Wunsch nach einer einfachen Funktion an, die alle Domains ausgibt. Damit würde ich mir ein aufwendiges Parsing sparen. Hiervon bräuchte ich beispielsweise für die acme.sh Integration nur die Zeile "domainname".


    Des Weiteren fände ich es auch toll wenn man für die einzelnen Records eine TTL setzen könnte, damit kann man beispielsweise DynDNS umsetzen.

    Hallo KB19 ,


    ich habe mich auch bisher noch nicht mit SOAP bei PHP befasst, aber versuche dir mal einige Fragen zur Api zu beantworten.

    • Das Ackpoll/Poll Handling kann dir egal sein wenn du nur mit den Zonen arbeitest. Dieser Hinweis in der Doku erklärt es eigentlich ganz gut. This function is avaliable for domain resellers.
    • Aktuell gibt es leider keine einzelnen Funktionen, ist aber auch nicht zwingend notwendig. Denn updateDnsRecords kann alles was notwendig ist. Es macht halt den Code umso aufwendiger ;)
      Nein, du musst nicht alle Records abrufen und diese wieder mit dem veränderten Elementen zurückgeben, es funktioniert aber dennoch. Es reicht aus wenn du nur die veränderten Elemente zurück gibst.
    • Auf ein Limit bin ich noch nicht gestoßen, dass kann dir vielleicht der [netcup] Johannes B. beantworten. Wenn du ein Statement mit 50+ Records präparierst dauert die Validierung durch die Api schon mal eine kleine Weile.

    Falls du dir nicht sicher sein solltest, schau dir notfalls meine JSON-Statements an. Vielleicht helfen die dir weiter.


    Viele Grüße

    linuxinside

    Hallo geekmonkey,


    ich habe ein Bash Script geschrieben mit dem Backup/Restore (benötigt jq) möglich sind. Allerdings gab es zudem Zeitpunkt noch nicht die Möglichkeit über die Api den SOA zu verändern, daher werden nur die DNS Records gesichert. Weitere Funktionen werden demnächst ergänzt: Netcup DNS API Bash Client


    Übrigens: ich habe auch eine acme.sh Integration für die NC Api geschrieben: acme.sh Repo


    Viel Spaß damit und nochmals vielen Dank an den [netcup] Johannes B. der mich bei der Umsetzung unterstützt hat.


    Viele Grüße

    linuxinside

    Mittlerweile hat Plesk auch mit Update #48 auch eine Möglichkeit fest integriert um die IPs erst mit der Log Rotation zu anonymisieren ohne das Workaround Script zu verwenden. Plesk ist optimistisch dass das IDS auch weiterhin trotz anonymisierung funktionieren sollte.

    Zitat

    There should be no side effects. Fail2ban should continue working since File2ban works with log files before anonymizing.


    https://docs.plesk.com/release…e-log/#contents-1753-mu48

    https://docs.plesk.com/release-notes/onyx/gdpr-compliance/

    Bleibt noch die Frage, ob ich mit unterschiedlichen Prios arbeiten kann und HE somit als fallback option habe, falls mir die Mailkuh vom Eis rutscht

    Ja geht,

    wenn HE als fallback dienen soll empfehle ich dir dem Mailcow VPS eine höhere Prio zu geben so dass dieser zum "Hauptmailserver" wird.

    Hier musst du nun entweder für jedes Mailkonto und Pendant bei HE die neuen Mails abrufen oder du rufst die Mails bei einem Catchall Konto bei HE z.B. per getmail ab und sorgst dafür, dass der Mailcow Dovecot die Mails entsprechend den Konten zuordnet. Dies hängt aber stark von der gesamten Mail Config ab.

    Hi,


    ja der Storagespace ist (abrechnungstechnisch) monatlich kündbar. Du kannst das Volume jederzeit kündigen, dann werden auch die darauf gespeicherten Daten sofort gelöscht. Jedoch wird der angebrochene Monat voll berechnet.

    Ich kann dir ISPConfig vor allem für Mails sehr empfehlen. Nachdem aus für Mailcow (non-dockerized) bin ich hierauf umgestiegen, da es zumindest für mich die beste/flexibelste alternative darstellt.


    Alternativ schau dir mal Mail-in-a-Box an, es ist Mailcow am ähnlichsten, benötigt aber Ubuntu 14.04 als OS und ist weniger flexibler ISPConfig.


    VG
    linuxinside

    Hallo heikoh81,


    ja, dein Vorgehen ist so möglich. Sobald du einen Account für das CCP (Customer Control Panel) hast kannst du dort direkt deine Domains bestellen.

    Warte mit dem Domainumzug wenn es bei dir nicht eilt noch ein bisschen. Netcup hat öfters mal Domainaktionen am laufen bei denen .de Domains zum Teil schon für 0,12€ / Monat zu haben sind.


    Du musst bei den Domains die Records manuell auf die IP deines Servers umstellen, das geht nicht automatisch.


    Viele Grüße

    linuxinside

    Hallo heikoh81,


    bei den Snapshots handelt es sich um komplette Abbilder deines Servers, diese werden nicht im Dateisystem deines VPS abgelegt, sondern zusätzlich gespeichert. Sobald dein VPS + Snapshots mehr als 50% des dir zur Verfügung stehenden Speichers belegen kannst du keine Snapshots mehr anlegen, da du sonst mehr Speicher belegen könntest als du gebucht hast ;). Bei einem Snapshot Export wird ein qcow2 Image deines Servers erstellt und auf dem Netcup FTP Server zum Download abgelegt. Du hast pro Server nur einmalig einen Snapshot Export inklusive.


    Ich finde die Snapshots stellen keine richtige Backuplösung dar. Diese verwende ich aber immer vor einem größeren Update, damit ich bei einem Problem schnellstmöglich auf den Stand vor dem Update komme. Somit komme ich ohne die kostenpflichtigen Exporte aus. Du kannst theoretisch unendlich viele Snapshots anlegen und wieder herstellen, solange du die 50% Hürde nicht überschreitest.


    Viele Grüße

    inuxinside