Posts by H6G

    Die bios_grub Partition liegt damit ganz am Ende der Festplatte.


    VIRTIO kann damit ohne Probleme umgehen, SCSI aber nicht.

    Das hat mit dem Treiber nichts zutun.

    Im Zweifel Rettungssystem starten und grub neu installieren.


    Die GRUB Config und /etc/fstab muss auch anpasst werden, wenn nicht mit Laufwerk UUIDs gearbeitet wurde.

    Du brauchst keine Grafikkarte

    Die war für das alte System und wird auch im alten System bleiben.


    Evtl solltest Du die oberen Verkleidungen abnehmen und den CPU Lüfter oben rauspusten lassen.

    Mal gucken, wie sich das System am Bestimmungsort so verhält.

    Dadurch, dass eine Glasfaser hinten rauskommt, kann das Ding eh nicht dicht an der Wand stehen.

    Naja, das ist ja jetzt nicht unbedingt Proxmox zugute zu schreiben

    Dass LXC und Qemu stabil laufen?

    Ich glaube schon, dass ein Paket Maintainer darauf großen Einfluss hat, vorallem was Konfiguration anbelangt.


    Da habe ich mit dem libvirt Ökosystem nicht so viel Glück - da bin ich noch auf Version 8.3.0, weil die Versionen danach Bugs haben, die bei Google nur zwei Treffer haben.


    In Punkto Stabilität, vorallem während und nach einem Update, und nach einem Major OS Update von Debian, läuft Proxmox einwandfrei - das ist definitiv Proxmox anzurechnen.

    Bin ich doof oder war das echt nur eine Blechhütte?

    Das legen zumindest die letzten Bilder für genau den Gebäudeabschnitt dar.

    Auf den Übersichtsbildern sieht man auch nur ein Geschoss.


    External Content twitter.com
    Content embedded from external sources will not be displayed without your consent.
    Through the activation of external content, you agree that personal data may be transferred to third party platforms. We have provided more information on this in our privacy policy.

    zwei Test KVM Container vom Typ RS 8000 neu gestartet wurden und dieses Problem nachher seitens Supports dann nur von ca. 10 Tagen auf ca. 30 Tagen verlängert wurde, so meine Beobachtungen.


    Um dieses Problem eventuell beseitigen zu können, wurde mir damals vom Support angeraten, einen viel älteren Kernel vom Typ LTS auf den beiden KVM´s zu installieren, was aber für mich auch aus Sicherheitsgründen keine Option war.

    Das Problem ist übrigens gelöst.

    External Content twitter.com
    Content embedded from external sources will not be displayed without your consent.
    Through the activation of external content, you agree that personal data may be transferred to third party platforms. We have provided more information on this in our privacy policy.



    Lese ich das richtig - wieder Franzosen

    Talent haben sie, diese Franzosen.


    Edit:


    Das sieht aber wieder nicht nach massiver Bauweise aus.

    Hallo Zusammen,


    ich teile mit euch mal mein Arbeits-Logbuch für den Umbau meines NAS / Heimservers.


    Bisher habe ich eine Workstation als Server laufen mit Intel Xeon W3565 (4 Kerne, 8 Threads) mit 24 GiB unbuffered unregistered ECC RAM, was der maximalen Ausbaustufe entspricht.

    Das System genehmigt sich satte 120W im Leerlauf und 200W im Start / unter Last.


    Dranne hängen je vier WD Ultrastar DC HC310 - SAS Festplatten mit 4K nativ Sektoren in einem zfs RaidZ1 Verbund und zwei 256 GB SATA SSDs im Raid1 für das Betriebssystem.

    Die Datenträger hängen an zwei LSI SAS2008 Karten und das OS-Raid wird dadrüber verwaltet - das Mainboard unterstützt nämlich nur SATA II (3 Gb/s).


    Das ganze wird unterstützt durch Proxmox für diverse Windows VMs, eine Telefonanlage, DNS Server (PiHole), Samba und NFS Server (NAS), Videostreaming Server, Arch Paket Cache.

    Dazu gibt es noch eine 10G SFP+ Netzwerkkarte und eine Grafikkarte, falls man mal draufgucken muss.


    DSC_0186.jpg


    Warum eigentlich SAS? - Das frage ich mich auch gerade.

    Ich wollte Festplatten, die nativ das SCSI Protokoll sprechen - das sorgt für weniger Overhead, weil SATA Platten per AHCI angesprochen werden - und 4Kn Platten haben im zfs Einsatz einige Vorteile.

    SATA Platten machen einem das Leben schon einfacher manchmal.


    DSC_0187.jpg


    In einer Telegram Gruppe wurden mir einige Komponenten für einen schmalen Taler angeboten.

    Es gab einen AMD Epyc 7351P mit passendem Mainboard, Kühler und Gehäuse für 400 Taler. Schnapper.

    Dazu habe ich mir noch zwei 32GB Schokoriegel LRDIMMs (Buffered, Registered ECC - damit kann man das Mainboard voll bestücken und hat am Ende satte 2TB RAM) für 140 Taler und ein 80 Plus Platinum 550W Netzteil für 120€ gekauft.


    Das Zeug kam heil an, ich habe zunächst nach Anleitung den Lüfter und RAM montiert.

    Für den RAM gibt es in der Anleitung vom Mainboard eine Bestückungstabelle, wo man seine zwei einsamen Riegel reinstecken soll.


    DSC_0179.jpgDSC_0181.jpg


    Die Sockel für AMD Epyc Prozessoren und AMD Threadripper sind identisch zueinander - der Lüfter, eigentlich für den Threadripper, passt also.

    Leider ist die Ausrichtung etwas suboptimal, da der Epyc um 90° gedreht ist, im Vergleich zum Threadripper.

    Dafür ist Server RAM stets Stromlinienförmig zur Front angeordnet - mal sehen was das wird.


    Im Gehäuse gibt es viel Platz für Kabelmanagement und ein paar Bitumen Matten zur Schalldämmung.

    Die HDD Käfige lassen sich unterschiedlich anordnen, u.a. für eine bessere Luftversorgung.


    Ein Käfig musste zum Mainboard-Einbau raus, die Fronttür habe ich auch entfernt.

    Das Netzteil bekommt von unten Luft und die Lüftersteuerung des Netzteils habe ich deaktiviert.


    Kurz Saft anschließen um zu sehen, ob die erstandenen Teile auch funktionieren.


    DSC_0182.jpgDSC_0183.jpgDSC_0184.jpg


    Löpt. Memtest86+ läuft auch durch, sofern man die aktuellste Version 6 nimmt.


    Bleiben ja nur noch die Festplatten und das Kabelmanagement, persönlich durch die PC-Ente überwacht.


    DSC_0188.jpg


    Kabelmanagement für Server? Kein Problem wenn die Kabel lang genug sind - sind sie aber nicht - zumindest nicht das 24 Pin Hauptkabel.

    Und die Festplatten? Will nicht. Das Mainboard hat übrigens viele SATA Ports, da kann man viele SATA Festplatten anstecken - sofern man welche hätte.


    Diese 10 Jahre alten SAS Controller haben noch eine alte Firmware, und das Zeug ist auf BIOS ausgelegt, nicht auf UEFI.

    Die kann man also neu Flashen.


    Zunächst funktionieren die Flashtools für Linux nur, wenn die Karten halbwegs initialisiert sind - und dann auch nicht vollständig.

    Empfohlene Vorgehensweise lt. Netz ist das Flashen direkt per EFI oder DOS. Für EFI-Flashen braucht man eine EFI-Shell - die dann aber in Version 1, und nicht 2 - weil unterschiedliche EFI Executables unterschiedlich sind. Nicht ganz zu leicht zu finden, funktioniert aber auch nicht. Na und FreeDOS - hat auch so seine Probleme mit dem Flashtool.


    Was dann aber funktioniert hat, ist das Flashtool unter FreeDOS auf dem alten NAS - das hat nämlich noch ein BIOS und kein UEFI.

    Zudem hat die Karte eine Idenditätskrise - die ist nämlch HP gebranded, zurück zur alten Firmware geht es auch nicht.


    Nach etlichem ein und ausstecken zwischen den beiden Systemen funktioniert es dann letztendlich immer noch nicht.


    Die noch nicht geflashte Karte also wieder zurück ins alte NAS, SSDs ran und Image ziehen.

    Im neuen System ein LVM RAID und die Images wieder rüberspielen, wenigstens das Betriebssystem funktioniert dadurch.


    Und die SAS Platten? Die älteren Controller haben noch PCIe 2.0 Anbindung und die AMD Epyc und Ryzen Plattformen haben da ihre Probleme mit, sofern man im BIOS Setup nicht den Link Speed einstellen kann. Kann das Mainboard hier scheinbar nicht, auch nicht nach einem Firmware-Update. (Danke AMD?)


    Bleibt also erstmal nur eine neue SAS HBA bestellen und bis dahin dieses "Serverless" auszuprobieren.


    [Fortsetzung folgt...]

    Tja, da wurden wir schon eines Besseren belehrt.

    Den Heise Beitrag hatten wir doch schonmal kritisch diskutiert.

    Wer seinen eigenen Router hat, braucht keine zusätzliche Firewall.


    Falls es nur ein Mietgerät ist, könnte man darüber nachdenken, es ist aber keine Pflicht.