Das längste Thema

  • Hat zufällig jemand Erfahrung damit, wie man Debian Diskless und möglichst Readonly betreibt? Ansonsten muss ich mich mal durchs Internet wühlen...


    Ausgangslage: Alte Seagate Dockstar, gebootet werden soll direkt übers Netzwerk. Bereitstellung von 1-2 Diensten, die ohne dauerhaften Datenspeicher auskommen.


    Ziel: Ein System, dem man jederzeit gefahrlos den Stecker ziehen kann. Trotzdem sollen bei Bedarf Systemupdates und Änderungen ohne viel Aufwand eingespielt werden können.


    Ich spiele schon mit dem Gedanken, einfach OpenWrt zu nehmen. Aber das ist eventuell zu unflexibel für meinen geplanten Zweck. Und von der Installation her wahrscheinlich auch komplexer auf diesem Gerät.

  • Hat zufällig jemand Erfahrung damit, wie man Debian Diskless und möglichst Readonly betreibt? Ansonsten muss ich mich mal durchs Internet wühlen...

    Ich betreibe Alpine Linux "diskless".

    Bootpartition ist ganz normal beschreibbar, enthält aber nur Bootloader (extlinux), Kernel und Initramfs. Die Rootpartition liegt in einem SquashFS, das wird während des Bootvorganges im Init Script des Initramfs gemounted (statt z.B. /dev/sda1) und ein OverlayFS wird 'drübergelegt, welches alle Schreiboperationen in den RAM leitet. Kann man sich in einer VM erstellen und dann auf Hardware starten, mittlerweile habe ich mir aber die ISO-Generierungsskripte so angepasst, dass ein fertiges System für mich rauspurzelt - dann habe ich noch eine DVD die mir das aktuelle System herunterlädt, die Partitionierung fertig macht etc. pp.


    Du könntest dir ja auch eine Debian-LiveCD erstellen - die nutzen eine ähnliche Vorgehensweise.


    Die Stelle im init-Script sieht bei mir so aus:

    Code
    1. nlplug-findfs $cryptopts -p /sbin/mdev $KOPT_root
    2. mkdir -p /mnt /mnt/root-ro /mnt/root-rw /mnt/hdd /mnt/root-temp
    3. mount -t ext4 /dev/sda1 /mnt/hdd
    4. mount /mnt/hdd/data/filesystem.sqfs /mnt/root-ro -t squashfs -o loop
    5. mount -t tmpfs root-tmpfs /mnt/root-temp
    6. mkdir -p /mnt/root-temp/root /mnt/root-temp/work
    7. mount -t overlay -o lowerdir=/mnt/root-ro,upperdir=/mnt/root-temp/root,workdir=/mnt/root-temp/work overlayfs $sysroot
    8. mkdir -p $sysroot/data $sysroot/boot $sysroot/mnt $sysroot/mnt/root-ro $sysroot/mnt/root-rw $sysroot/mnt/hdd $sysroot/mnt/root-temp
    9. mount /mnt/hdd/boot $sysroot/boot
    10. mount /mnt/hdd/data $sysroot/data


    /dev/sda ist eine 16 GB große mSata-SSD, unter data liegt das SquashFS in Dateiformat, unter Boot sind Kernel und Initramfs.

    Ich hoffe, das gibt einen kleinen Einblick in eine mögliche Umsetzung.

  • Ich habe auch schon Abbilder gesehen, die über tftp einiges nachladen und chainloaden können. Bin mir nicht sicher, ob das über pxelinux auch geht. Müsste man mal recherchieren ob man damit mehr als nur Kernel und Initramfs übers Netzwerk laden kann. Ansonsten lässt sich die SquashFS-Datei bestimmt gut in das Initramfs integrieren, mit ausliefern und von da aus mounten. Beim Initramfs sollte es ja eigentlich keine Größenbeschränkung mehr geben - die gab es ja nur beim Initrd - habe ich aber so noch nie getestet.

  • Was tut man nicht alles, wenn man Langeweile hat.

    Habe es eben gerade über Festplatte und auf x86_64 Basis probiert mit Debian 9. Das SquashFS File lässt sich in das Initramfs einbetten und auch erfolgreich laden. Allerdings mag der Init-Prozess etwas nicht an der Konstellation. Die letzte Zeile im Init-Scriptexec run-init ${drop_caps} ${rootmnt} ${init} "$@" <${rootmnt}/dev/console >${rootmnt}/dev/console 2>&1 wirft eine Kernel-Panic.

    Wenn man vorher eine Busybox Shell aufmacht, funktioniert alles einwandfrei - Overlay und SquashFS sind erfolgreich unter /root/ eingebunden und startklar.


    Der Init-Prozess weigert sich aber /root/ unter dieser Konstellation als neue Wurzel zu akzeptieren.


    Was muss das System können, was OpenWRT nicht zur Verfügung stellt?

  • Mir ist vorhin noch etwas eingefallen: Ich habe einen TP-Link TL-MR3020 ungenutzt rumliegen. Also schnell ein minimales Image gebaut und gleich mal was ausprobiert…

    Was muss das System können, was OpenWRT nicht zur Verfügung stellt?

    Offenbar nichts, weil ich die Software im Hintergrund gewechselt habe. Damit ist es auch mit OpenWrt kinderleicht realisierbar! :)


    Fazit: Das Ding läuft und hat von 4MB Flash noch einen knappen MB frei. Ging deutlich schneller als eine Dockstar einzurichten…


    Das bootet jetzt zwar nicht übers Netzwerk, das war aber sowieso nur wegen Debian geplant. Trotzdem Danke für Deinen Input! :thumbup:

  • Faxe sende und empfange ich digital seit Jahren kostenlos mit https://www.epost.de/ - dafür erhält eine Telefonnummer mit 032-Vorwahl. Probleme hatte ich damit noch nie und auch eine Empfangsbestätigung erhält man per Fax zurück in den "Posteingang". Bilder und PDFs lassen sich entweder direkt (1:1) oder optional mit Deckblatt versenden.


    Alle anderen Möglichkeiten (Briefe senden/empfangen, Onlinespeicher etc.) nutze ich überhaupt nicht. Wirklich nur die kostenlose Fax-Funktion. :D

    nutze ich auch aber fürs gegenüber ist der Dienst eher unschön da die 032 eine Sonderrufnummer ist und je nach Anbieter kostet...

  • Habe heute mal meinen Homeserver neu installiert und auch das ZFS neu gebaut. Ein Kumpel hat mir ein paar Tipps gegeben was ich falsch eingerichtet hatte. Nun hat sich die Performance beim Schreiben verdoppelt und beim Lesen verzehnfacht, aber bei ARC auf 16 Gigabyte begrenz zumindest noch vervierfacht.

    Nachdem sich das FS ein wenig eingelebt hat gab es noch mal einen kleinen Geschwindigkeitsschub. Niedlich, oder? :-)


    Screenshot at 2018-03-04 23-01-00.png

  • Ich bekomme seit meinem Umzug von Aktion Expert Spezial Hosting zum EiWoMiSau Angebot von meinem WP cronjob unregelmäßig (ca. 1-2/Tag) "Got a packet bigger than 'max_allowed_packet' bytes for query UPDATE" Fehler geworfen. Bis auf den Umzug hab ich auch nichts an der Seite selbst geändert, die Seite ist auch nicht wirklich groß nur 5-10 statische Seiten, ein Kontaktformular und ein par Fotos.


    Ich hab den Support schon angeschrieben, der meinte das SQL Limit wäre unverändert bei 16M, der Umzug könne also nicht Ursache sein.


    Google hat mir im Wesentlichen nur gesagt ich solle halt das Limit hochsetzten. :(


    Hat einer von euch schon mal so einen Fehler bei WP bekommen? Irgendeine Idee was ich da machen kann?

  • Ist es eigentlich beabsichtigt, dass der Datenverkehr zu Hurricane Electric über Wien statt über Frankfurt geleitet wird?

    Code
    1. traceroute to he.net (216.218.186.2), 30 hops max, 60 byte packets
    2. 1 gw02.netcup.net (46.38.225.3) 0.908 ms 0.877 ms 0.878 ms
    3. 2 gw01.netcup.net (46.38.224.33) 1.816 ms 1.843 ms 1.836 ms
    4. 3 10gigabitethernet1-3.core1.vie1.he.net (193.203.0.185) 10.196 ms 10.177 ms 10.251 ms
    5. 4 100ge13-1.core1.par2.he.net (184.105.65.5) 23.535 ms 23.515 ms 23.517 ms
    6. 5 100ge14-1.core1.nyc4.he.net (184.105.81.77) 98.153 ms 98.159 ms 98.153 ms
    7. 6 100ge8-1.core1.sjc2.he.net (184.105.81.213) 151.569 ms 151.405 ms 151.512 ms
    8. 7 10ge1-1.core1.fmt1.he.net (72.52.92.109) 153.184 ms 166.164 ms 155.476 ms

    Zum Vergleich IPv6 über Frankfurt:

  • eher Zufall würde ich sagen, vielleicht ist ja genau der "Kanal" der f. IPv6 verwendet wirde

    zu dem Zeitpunkt f. IPv4 verstopft, sodaß anders geroutet wird ...

    Hauptsache es kommt an würd ich sagen ;)

    wenn ich ein traceroute(6) zu mir nach Hause (IPv4 native, IPv6 HE-Tunnel) mache, ist

    bei IPv6 der 4te Hop bereits mein Router, bei IPv4 hingegen erst der 6te Hop mein Anschluß ...

    Grüße / Greetings

    Walter H.


    RS 1000 SAS G8 xRAM; RS 500 SSD G8; S 1000 G7; VPS 200 G8 Akt.; Webhost. 1000 m. 75%

  • Ist es eigentlich beabsichtigt, dass der Datenverkehr zu Hurricane Electric über Wien statt über Frankfurt geleitet wird?

    Netcup gehört ja jetzt zu Anexia bzw. die sind verpartnert. Wenn die sich eine Leitung gelegt haben mit 10G dann könnte das durchaus Sinn machen, wenn HE eine größere Peeringkapazität in Wien hat als FFM.


    Netcup plant ja auch die RZ Flächen in Wien zu nutzen.

  • IPv6-HE-Tunnel-Ausgangspunkt gibt es in Wien keinen,

    von daher ist es aber schon seltsam, daß IPv4 und IPv6 unterschiedlich gerouttet werden;

    da passt die größere Peeringkap. in Wien nicht wirklich ins Bild ...

    Grüße / Greetings

    Walter H.


    RS 1000 SAS G8 xRAM; RS 500 SSD G8; S 1000 G7; VPS 200 G8 Akt.; Webhost. 1000 m. 75%

  • IPv6-HE-Tunnel-Ausgangspunkt gibt es in Wien keinen,

    Hier geht es ja um keine v4 zu v6 Tunnel oder dergleichen. HE kann man aber wohl in Interxion VIE1 antreffen

    seitdem das Peering mit HE am VIX aktiviert wurde.


    Könnte natürlich sein, dass hier die Session(s) hin und wieder mal flappen, beide die gleiche Gewichtung haben und deshalb immer die Route genommen wird, mit der höchsten Uptime.


    Weitere Theorie die vermutlich eher zutreffen könnte, HE bietet grundsätzlich kostenfreien IPv6-Transit über IX an, ECIX ist hiermit günstiger als der kostenpflichtige Upstream über v6 direkt bei netcup.