Wiedermal Grüße an die Windows Server Fraktion:
Posts by perryflynn
-
-
Die Seite, welche auch im Repo verlinkt ist, liefert einen "Invalid Request!"
Jo, ist absolut korrekt.
https://huepf.net/nc-kunden ist ein Demo wie das Ganze funktioniert. Das Tool hat keine Startseite.
-
Wir hatten in den letzten Jahren viele Threads hier im Forum wo irgendwas mit Nested Virtualization nicht funktioniert hat. Komische Bugs, die im schlimmsten Fall zum Absturz des KVM Prozesses führen.
Für mich ist das Frickelei. Gerade bei den kleinen VMs hier bei netcup ist das einfach Ressourcenverschwendung.
Installiert einfach das OS auf dem KVM Guest was Ihr braucht, nutzt im Zweifelsfall Container (LXD, Docker, Podman, whatever). Das funktioniert wenigstens zuverlässig.
Und wenn 5 Euro für eine weitere VM zu viel ist, ist das Projekt vielleicht nicht wichtig genug.
-
Vor ~12 Jahren habe ich sowas gebaut. Ne Handvoll Dateien und eine PHP Klasse iteriert durch die Dateistruktur und sucht nach bestimmten Parametern um die Informationen in diesen Dateien auf einer Website anzeigen zu lassen.
So 2-3 Jahre hat das auch gut funktioniert, irgendwann brauchte es aber erweiterte Funktionen wie Schlagwortsuche. Da habe ich dann eine SQLite Datenbank dazu gebaut, aber weiterhin durch die Verzeichnisse iteriert.
Das Projekt verwaltet heute knapp 98.000 Dateien und ist absolut nicht mehr performant. Ein einzelner Seitenaufruf dauert teilweise 20+ Sekunden.
Im letzten Weihnachtsurlaub habe ich dann angefangen das zu neu zu schreiben. In .NET C# und mit PostgreSQL. Dateien gibt es noch, aber die Datenbank enthält nun einen Index welche Dateien und welche Metadaten es gibt und man kann über die DB suchen anstatt direkt im Dateisystem. Längster Seitenaufruf bisher war 1,2 Sekunden.
Will sagen: Auf Datenbanken verzichten zu können hat lange gut funktioniert und die Anwendung sehr einfach gehalten, aber irgendwann wird der IO alles ausbremsen.
Wenn es ausgeschlossen ist, dass es jemals so viele Dateien werden oder Du immer nur eine bestimmte Datei brauchst die man durch den Dateinamen vorhersagen kann, go for it. Mein hüpf.net nutzt zum Beispiel genau das. Jeder Seitenaufruf ruft immer nur genau ein Textfile auf, dementsprechend ist es egal wie viele Dateien es gibt. Ein Seitenaufruf wird immer gleich schnell sein.
PS: Übrigens wenn es einfach um eine CMS-artige Website geht, nutze einen der unzähligen Static Page Generators wie Hugo oder Jekyll.
-
Ach was, für die alte Kiste gibt es wahrscheinlich eh keine Malware mehr.
Da kann ich sehr die Videos von Eric Parker empfehlen, er hat das mit verschiedenen Windows Versionen versucht:
https://www.youtube.com/@EricParker/search?query=What%20happens%20if%20you%20connect
-
Grüße an alle die Windows im Internet/Rechenzentrum betreiben:
-
Debian 10.
Du bekommst übrigens seit Sommer 2024 keine Sicherheitsupdates mehr und solltest mal über ein Update nachdenken.
-
Habe nun doch einen Hosting Account Zugang und folgendes funktioniert ohne Fehler:
-
Ich wurde gebeten ein smartctl Binary zu bauen, da die aktuellen Distributionen oft kein 7.4 ausliefern, und man das für die Betrugsserie bei den Seagate Platten braucht. Also gibts das jetzt hier:
https://files.serverless.industries/bin/
Der permissions-fehler [#6, #21] besteht leider immer noch.
Ich kriegs leider nicht nachgestellt.
-
Stimmt mal ab, falls Ihr einen Fediverse Account habt.
Ich war eben echt überrascht, wie viel das bei mir war.
Christian :vbike: (@christian@einbeck.social)How much traffic (download+upload) does your internet connection handle per month? [ ] < 500 GB [ ] 500 GB to 5 TB [ ] 5 TB to 20 TB [ ] > 20 TBeinbeck.social -
Die Magic in meinem Ansatz war, Alpine + musl-libc und die in Alpine statisch bereit gestellten Libs zu benutzen. Mit Debian/Ubuntu und glibc bin ich andauernd in Abhängigkeiten gelaufen, die nicht statisch linkbar waren. Zum Beispiel zu systemd.
Siehe https://github.com/perryflynn/…rc/base-alpine/Dockerfile und https://github.com/perryflynn/…ster/src/rsync/Dockerfile
-
Habe arm32 und arm64 erstmal deaktiviert. Keine Ahnung was das Problem ist und keine Lust da noch mehr Zeit reinzustecken. Ich versuche es beim nächsten Update noch mal.
Binaries: https://files.serverless.industries/bin/
Details: https://github.com/perryflynn/…?tab=readme-ov-file#tools
Wer es selbst mal probieren will, es gibt jetzt ein Script zum bauen ohne CI Pipeline:
https://github.com/perryflynn/static-binaries/blob/master/run-build.sh
Bitte die Details und die auskommentierten Befehle in dem Script beachten.
-
Das hatte ich auch noch nicht. Eine Architektur geht, die andere nicht. Unterschiedlichste Fehler. 🤷♂️
Dauert also noch n bisschen.
-
Moin,
ich will die Tage die Binaries aktualisieren. Hat jemand ne kurze Info für mich, wieso mein rsync Binary da nicht funktioniert hat? Ich kann dem Ganzen leider gerade nicht wirklich folgen... Würde dann versuchen das zu fixen.
-
Ich betreibe auf https://community.einbeck.social ein Discourse Forum und finde es klasse. Die Möglichkeiten was unterforen/rechte/plugins angeht sind endlos. Ich nutz das mittlerweile sogar als SSO provider für eine eigene App, wo nur eine bestimmte Discourse Gruppe sich einloggen kann. Updates liefen soweit auch smooth.
Einzig die Dokumentation des Docker deployments ist praktisch nicht vorhanden, hat mich einige Zeit gekostet rauszubekommen, wie man das so einstellt, dass nur Stable Releases genutzt werden.
-
Ich miste gerade Hoodies aus, die ich nicht trage.Wer mag kann mir gerne eine PN schicken und bekommt ihn dann für 7 EUR Versandkosten zugeschickt.Auf Kommentare Zwecks der Versandkosten werde ich nicht reagieren. Ich hab hier nur nen Karton und verschicke auch nur mit DHL + Sendungsnummer.Geldübergabe per Brief oder IBAN. Kein PayPal oder dergleichen.Uuuund er ist weg.
-
der CCC ruft zu spenden für die Hacker auf, die letztes Jahr die Betrügereien des Bahn Bauers newag aufgedeckt haben. Der Hersteller hat die Hacker verklagt und das ganze hat die Gruppe bis jetzt 30k EUR gekostet:
-
Aktuelle Statistik (rebuild einmal im Monat): https://laengstes.serverless.industries/
Wuhu automatischer monatlicher rebuild funktioniert auch.
-
Ist doch egal. Die, die mit den bösen Exploits kommen scannen eh selbst.
-
Ich lese hier schon seit einiger Zeit nicht mehr mit weil zu viel, die längste Statistik ist nun nach drei Jahren kaputt trotzdem wieder da!
Erkenntnisse:
- Gelöschte Beiträge werden nicht mehr mit einem Grabstein-Beitrag angezeigt, die sind einfach weg
- Alle alten Likes sind bei dem Wechsel auf das Reactions System verloren gegangen
- Mitgliedersuche erfordert jetzt eine angemeldete Session
- Die Menge der Mitglieder ist so angewachsen, dass man in der Suche mehrere Seiten der Suchergebnisse parsen muss
Aktuelle Statistik (rebuild einmal im Monat): https://laengstes.serverless.industries/
Die alte von Januar 2022: https://laengstes.serverless.industries/index-2022.html
PS: Schon krass, Oktober 2018 hab ich mit dem Projekt angefangen.
Aus der Projekt Reihe: .NET Anwendungen updaten