Spannend, bei mir klappt es nur in Firefox.
Ich tippe drauf dass der PWA Service Worker nen Bug hat. Firefox hat ja keinen PWA support. Schaue ich mir demnächst an.
Spannend, bei mir klappt es nur in Firefox.
Ich tippe drauf dass der PWA Service Worker nen Bug hat. Firefox hat ja keinen PWA support. Schaue ich mir demnächst an.
Habe gehört wenn man auf /wp-admin geht gibt es eine Überraschung
Du Häcka!
Soweit ich gesehen habe, gibt es letztlich aber kein richtig oder falsch.
jup, reine Geschmackssache
+1 für Jekyll.
Ich schreib da mittlerweile sogar kleine Erweiterungen für. Finde das klasse, dass man nur ein bisschen Datenstrukturen durch die Gegend schieben muss und der Rest simpel über die Template Engine gemacht wird.
Beispielprojekt:
Hab noch ein bisschen rumgesucht, das hängt irgendwie mit der GLIBC Version zusammen, welche ein Problem mit chmod/lchmod syscalls hat. Keine Ahnung, hab jetzt ehrlich gesagt keine Lust da weiter Versionen auszuprobieren und manuell rumzupatchen. 🤷♀️ Ladet einfach ohne -a auch und setzt die Permissions danach.
Moin, wieder mal ein Update auf die neusten Versionen, außerdem zwei Build Errors via patching beseitigt und der ARM support geht wieder! 🎉
https://serverless.industries/2025/11/23/static-binaries-update.en.html
Nen Webhosting muss sowas abkönnen. 160GB Traffic bei statischen HTML ist doch Kindergarten. Wenn das zu Problemen führt macht netcup was falsch.
Wenn es wirklich auf viele viele Downloads skalieren soll, ist es nur wichtig das EBook wirklich einfach auf den Webspace zu packen und nicht da irgendein PHP Script oder so zwischen zu hängen. Das sind normal die Flaschenhälse. Die Webserver selbst können viele, viele, viele Downloads verarbeiten ohne große Probleme.
Hatte im April die Ehre einen "Hacker News Hug of Death" zu erleben, dabei sind in 24 Stunden 160GB Traffic entstanden. Ohne das man das an der Performance des Webservers irgendwie gemerkt hat. Waren halt nur statische HTML und Bilddateien.
Ich will den Thread hier jetzt nicht in den Off-Topic führen, auch da Du dich ja in deinem eigenen Beitrag schon selbst relativierst.
Das Replizieren der Änderungen dauert einfach nur ein bisschen. Was IMHO schon ein Unterschied zu "Joa, ich Cache das jetzt für ne Woche weil es so in der TTL steht" ist. Von daher ein guter Test neben dem von Dir beschriebenen whois abfragen.
Man kann diese Wartezeiten auch immer umgehen, indem man den zuständigen DNS Server direkt fragt.
Erst schauen wir auf einem der Root DNS Server welcher DNS für die .de Zone zuständig ist:
$ dig de NS @a.root-servers.net
;; QUESTION SECTION:
;de. IN NS
;; AUTHORITY SECTION:
de. 172800 IN NS a.nic.de.
a.nic.de. 172800 IN A 194.0.0.53
Dann welcher für perryflynn.de zuständig ist:
$ dig perryflynn.de NS @194.0.0.53
;; QUESTION SECTION:
;perryflynn.de. IN NS
;; AUTHORITY SECTION:
perryflynn.de. 86400 IN NS ns.inwwwwwx.de.
perryflynn.de. 86400 IN NS ns2.inwwwwwx.de.
perryflynn.de. 86400 IN NS ns3.inwwwwwx.eu.
Und wenn bei der zweiten Antwort etwas kommt was nicht stimmt, dann ist das auch die aktuelle Momentaufnahme. Da gibt es keinen Cache. Heißt, wenn es da nicht stimmt, hat die Umstellung nicht geklappt.
wurde die Zone in eine TXT Datei geschrieben vom PHP Script. Und alle 5min ist ein Script durchgelaufen das die TXT Datei in das Bind Verzeichniss kopiert hat, die Bind Config gelöscht hat, umbenannt hat und dann wurde Bind neu gestartet.
So hab ich das zu Anfang auch gemacht. Für einen DNS im LAN. bind9 hat da aber nen Mechanismus für. Schau Dir mal AXFR und Zone Transfer an. Zum updaten von Zonen nsupdate aka rfc2136. (Viele nutzen da auch Webservices+APIs für, nsupdate ist der "eingebaute" Mechanismus)
Damit gehts dann ohne Unterbrechung des Betriebs.
Über ein Tool dessen Namen ich gerade vergessen habe kann man auch neue Zonen anlegen.
Ich finde das mit der Einrichtungsgebühr super lustig. Heute morgen gelesen, und ich komm immer noch nicht klar drauf.
Da die Domain Verwaltung hier weiterhin nichts taugt hab ich hier halt keine Domains.
Ich nutze die von dem wo auch meine Domains registriert sind. Mach gerne ein dig auf anyserver.net. Die Secondaries darf man kostenlos nutzen, sofern die Domains da liegen. Das große rote H bietet glaub ich auch Secondaries an. Ob die was kosten weiß ich nicht.
Manipulieren kann man die nicht, Änderungen gehen aber durch den notify den mein primary schickt sofort scharf. Wartezeiten hatte ich bisher nur durch (DSL) Provider Resolver. Google DNS und Abfragen direkt an die Secondaries liefern immer direkt die Änderungen.
Wenn man seinen eigenen DNS haben will kann man auch einen Hidden Primary installieren und dann Secondaries von einem Anbieter benutzen. Bieten diverse Anbieter an, funktioniert für mich sehr gut.
Hab die Möglichkeit eigene REST APIs zu bauen und das RFC nsupdate zu benutzen, muss mich aber nicht um die Redundanz kümmern.
Okay, son bisschen muss ich jetzt den alten, wütenden Admin raus hängen lassen.
Und bedenke folgendes: Du bist für die Sicherheit der Menschen verantwortlich, welche Deinen Dienst benutzen. Wenn da jemand die Daten abgreift weil Dein Dienst gehackt wurde, bist Du verantwortlich.
Auch bitte beachten, dass S2S für Bruteforce Angriffe missbraucht werden kann. Da gehört mindestens ein Captcha und Rate Limiting vor.
Cloud Init.
Wiedermal Grüße an die Windows Server Fraktion:
Die Seite, welche auch im Repo verlinkt ist, liefert einen "Invalid Request!"
Jo, ist absolut korrekt.
https://huepf.net/nc-kunden ist ein Demo wie das Ganze funktioniert. Das Tool hat keine Startseite.