Posts by Skulduggery

    So nachdem ich auf der Arbeit jetzt ganz lustiges Spielzeug habe, werde ich wohl meinem NUC noch einen Kollegen daneben stellen.


    Hab nun seit mehreren Jahren ein Coolermaster N200 Case rumstehen und bisher kein brauchbares und vor allem bezahlbares Mini-ITX Board gefunden. Neben Beschaffung ist ja der Betrieb von sowas mittlerweile auch ein Faktor der berücksichtigt werden muss. Leider bekomme ich den Strom nicht mehr für 8 Cent den KW/h geschenkt sondern für irgendwas mit 28 Cent pro KW/h, aua.


    Ich muss leider sagen, das seit dem AMD mit seinen ZEN Chips auf dem Markt ist, Intel für mich längerfristig ehr eine Titanic geworden ist. Das fängt für mich schon da an wieviele Tausende verschiende Gattungen an Intel CPUs es momentan gibt, dem Release und Dead Zyklus der Chips über den Fakt das diese Dinger teilweise massiv über die angebene TDP hinweg Strom ziehen.


    Nun kommen wir zum Spannenden Teil.


    Das N200 Gehäuse kann nur Mainboards mit M-ATX oder Mini-ITX aufnehmen. Das besagte Mainboard M11SDV-4C-LN4F erfüllt dieses Kriterum mit Mini-ITX schon mal. Nachdem ich das ganze auf Arbeit mit 80 Watt und ein bis zwei SSDs betreiben kann, ist auch der Punkt Stromverbrauch recht akzeptabel.


    Beim SoC handelt es sich um den AMD EPYC Embedded 3151 der mit vier 2700 Mhz Kernen und acht Threads bei 45 Watt TDP daher kommt. Supermicro spendiert dem ganze einen ordentlichen Passivkühler, jedoch ist es ratsam die Luft im Gehäuse in Bewegung zu halten. Dafür bietet das Board drei PWM Ports die man zur Not auch splitten kann. Ich persönlich werde wohl bei dieser Lösung auf drei bis vier 120mm Lüfter setzten.


    Eine PicoPSU (leider ein Amazon Link) wird als Stromlieferant in der Region 90-120 Watt herangezogen. Falls nicht bekannt ist, was eine PicoPSU ist. Bei einer PicoPSU handelt es sich um ein ATX Steckernetzteil welches von einem AC/DC Netzteil gespeist wird und gerade in den Regionen unter 100 Watt extrem effizient sein kann. Die suche nach fertigen ATX Netzteilen kann man sich bei unter 300 Watt sparen, da ist relativ tote Hose. Vor allem wenn man probiert 60 Watt an so einem Netzteil zu verbraten. Was auch sehr cool ist, das es für das PicoPSU Netzteil eine PCI Blende gibt, den den 12V sauber raus führt.


    Nun das Board hat auch ein Feature was ich bei Supermicro schon immer sehr gemocht habe. SATADOM. Der "goldene" Port auf dem Mainboard. SATADOM ist eine "mini" SSD welche man einfach auf den SATA Port steckt und quasi schon spass haben kann. Die Dinger haben zwar kein so olles Preis/Leistungverhältnis bieten dafür aber wesentlich robusteren Speicher gegenüber SD-Karten und USB-Sticks. Hier wird wohl mein Hypervisor Proxmox sein zuhause finden. Dann bleiben nur noch drei SATA Ports übrig, dass führt mich zum nächsten Thema.


    Die Ports sind definitv zu wenig, denn das Gehäuse kann 3 x 3,5" und 4 x 2,5 " nativ aufnehmen. Hierfür werde ich wohl eine DELL HBA330 oder H310 Karte verwenden welche im IT-Mode crossflashed wird, den ich mag RAID-Controller einfach nicht. Vor allem nicht wenn sie kaputt gehen. Nun hab ich, aber noch ein weiteres Thema, es gibt nur einen X16 PCI-E Gen 3 Slot. Die HBA-Karte braucht aber nur x8, warum sollte man da die anderen verbleibenden acht Lanes einfach weg werfen? Hierfür werde ich eine Bifurication Karte von Supermicro wohl ran ziehen, die mir den x16 Slot auf zwei x8 Slots auf bricht. Somit kann ich eine zweite M.2 NVMe SSD verbauen, neben der NVMe, welche bereits auf dem Board verbaut ist. Somit habe ich am Ende des Tages folgendes:

    • 1 x SATADOM (OS)
    • 2 x NVMe SSD (High Performance),
    • 4 x SATA SSD (Performance)
    • 3 x SATA HDD (Capicity Infrequent)
    • 3 x SATA HDD (Capicity Rarely)

    In anderne Worten:

    Die 240GB SSD's werden wohl auf länger Sicht gegen WD Red SA500 NAS SATA SSD gewechselt. Hier muss ich schauen, in wiefern ich den Storage beanspruche obs 500GB oder 1TB werden. Genauso werden die 1 TB Spindel entweder bleiben, und oder durch ein 3,5" Verbund ergänzt bzw. ersetzt. Fürs Backup hab ich keine direkten gedanken. Hier soll das Capicity Layer erstmal herhalten und aufdauer wird es vermutlich ein Coldbackup auf mehrere externe HDD's. Kann mir da auch vorstellen das eine Externe HDD am NUC hängt und darauf der Proxmox Backup Server läuft welches das Blockdevice als Destination nutzt.


    Beim Thema Netzwerk kann man eigentlich nicht mehr wirklich viel hinzufügen, das Board verfügt über dediziertes IPMI und einen I350 Intel Chip mit vier Gbit Interfaces, welches denke ich vorne und hinten reichen wird.


    Beim Arbeitsspeicher lässt das Board mit dem Formfaktor denke ich auch keinerlei Wünsche offen, vor allem für RAM liebhaber. Das ganze Board schluckt 512 GB RAM wenn mans braucht. Ich werde da klein anfangen und mich mit 2 x 16GB DDR-4 ECC zufrieden geben. Hier ist auch wieder anzumerken das es nicht nur 512 GB maximal schafft sondern auch in allen Variationen: non-ECC, regECC und ECC.


    Mir fällt jetzt leider nicht mehr viel ein was man hier noch erwähnen könnte. Falls jemand Vorschläge hat kann er sie gerne machen, vielleicht dient das auch als Denkanstoß für den einen oder anderen. Ich bin zumindest richtig Glücklich wenn diese ganze Show mit einer 90 bzw. 120 Watt PicoPSU auf dauer laufen kann.

    Hm so betrachtet natürlich verständlich, aber ich würde dem ganzen noch ein paar Tage Zeit geben. Die haben ja jetzt angefangen mit der Implementierung von SDN und bin da tatsächlich gespannt was daraus wird.


    Grundsätzlich kannst du doch auch Proxmox einfach durch Ansible hindurch provisionieren?

    Hat jemand weitere Details zu den oben besagten Fehlermeldungen? (Den Netcup Support hab ich bereits über eine andere E-Mail informiert)


    Mich würde beinahe der Technische Hintergrund dazu reizen, was mir mein armes SoGo den versucht zu erzählen.


    P.S.: Trozt langjähriger IT Erfahrung hab ich bisher immer erfolgreich einen Bogen um diese Technik "E-Mail Server" gemacht. Pls no haue ;-)


    Grüße,

    Falls jemand Hardware für Smarthome sucht. Ich hab mir jetzt einen Intel NUC mit J4005 (2x2,0GHz) geholt, 2 x 4GB DDR-4 RAM rein geworfen für ca. 145€. Dann noch eine 120GB SSD verbaut die noch rumlag und direkt mit Proxmox betankt. Was soll man sagen der NUC beherbergt aktuell vier VMs: RaspberryMatic, HomeAssistant, Unifi Network Controller, PiHole und macht hier doch einen erschreckend guten performanten Eindruck. Die Leute die eine CCU3 schon mal in der Hand hatten wissen vielleicht wie langsam diese ganze Bude mit dem Pi3 ist, dagegen ist ein x86_64 Nuc mit "lausigen" 2x2,0Ghz ein Porsche. Mir fehlt nur noch der RF-USB-Stick für Homematic IP und dann kann es da bei mir langsam aber sicher losgehen.

    Momentan wird dieser Thread es definitv nicht zum Level Repräsentativ schaffen.


    Hier spielen so viele Sonne, Mond, Sterne Faktoren mit das du da wahrscheinlich drei mal minimum pro System kompilieren musst, um einen Halbwegs brauchbaren Zwischenwert zu bekommen. Dazu kommen noch die Entscheidenen Faktoren wie Makeconfig etc. pp. da kann ich mir Frankenstein bauen der vielleich 2 Sekunden braucht, aber mit einer verstellten Flag vielleicht unter Umständen 2938484 Jahre.


    Desweiteren ist CentOS 7 so eine Asbach Uralt Distro das dir vermutlich jede "moderne" Distro davon kompiliert. Angefangen beim 3.10er Kernel über 4.8er GCC.. ach lassen wir das besser.


    Wenn das hier was halbwegs brauchares werden soll, würde ich folgenden Spielregeln empfehlen:


    Alpine Linux Standard 3.12.0

    Sharing des Kernel (uname -r)

    Sharing der Disk config (lsblk)

    Sharing der Distro (cat /etc/os-release)

    Sharing der Make Config

    Sharing des Prozessors (cat /etc/procinfo)

    Sharing der genutzen Befehle

    Posting des Konsolenoutput


    Und am Ende spielen immer noch genug andere Faktoren mit die sich nicht wirklich in den Griff kriegen lassen. Kurz gesagt man kann machen was man möchte es wird immer Abweichungen geben die zwischen 0 und 100 liegen können.

    Ich kann dir eigentlich für dein Vorhaben, fast nur einen HAProxy empfehlen der simples SSL-Offloading (<- Stichwort) erledigt.


    Heißt deine Applikation lauscht nur auf 127.0.0.1 und ist demnach auch nur durch den HAProxy erreichbar nach aussen. Dafür macht der HAProxy dann auch so spielereien wie ich leitet 80 auf 443 weiter und wenn kein 443 dann gibts halt nix. Dann kommen noch so Sachen wie schnelles http/2 und Content Security Policy dazu und der Kuchen ist gegessen. Sobald HAProxy stirbt musst du dir halt keine Sorgen um irgendwas machen, weil defakto dann nix erreichbar ist nachdem alles auf 127.0.0.1 lauscht.


    Hab aber leider auch keinen Vergleich wie NGINX als Proxy abliefert nachdem ich dem Linux Schema folge und nur einen Dienst für eine Sache nutzte. Mir ist es quasi wurscht ob NGINX das könnte, er kann das was er kann Webserver spielen. HAProxy wiederum kann kein Webserver (in der Theorie schon, aber lua ist einfach hässlich), wurde aber gerade für so Sachen wir Load Balancing und Offloading gebaut.

    Ich möchte mal auf diesen Apple Bash als neutraler Apple User mal ganz kurz und bündig eingehen.


    Ja es ist korrekt sobald ein Apple Gerät auf eine Apple ID registriert wurde ist das Gerät an diesen Account gebunden. Sofern man das Gerät nicht von dieser ID entfernt ist es relativ wertlos für Fremdnutzer. Was ich ja grundsätzlich relativ nett finde, weil defacto der Diebstahl eines Applegeräts ohne den dazugehörigen Account komplett Sinn- und Wertlos ist.


    Apple hat entsprechend auch die Möglichkeiten geschaffen das man seine ganzen Applegeräte auch ohne Applegerät managen kann. Sprich wenn man keines mehr haben sollte, aber vergessen hat dieses zu entfernen kann man das relativ easy unter appleid.apple.com machen. (Ja da gab es Zeiten da existierte das nicht, das haben die auch irgendwann verstanden.)


    Nun kommen wir noch zum ganz spannenden Fall. Das vereerbte Applegerät eines Verstorbenen Angehörigen. Um es kurz zu machen. Dort macht Apple am allerwenigsten eine Wissenschaft daraus im gegensatz zu dem was man von Facebook man mal so gehört hat (Wie gesagt neutral das Facebook mimimi mit verstorbenen Accounts macht ist bekannt aus der Presse). Apple erwartet von dem Angehörigen nur den Strebenachweise sprich die Sterbeurkunde und einen Nachweis das man tatsächlich ein Angehöriger ist (z.B. Ausweis). Dann prüfen die das und wenn alles korrekt ist erhälst du zugang zur Apple ID und kannst entsprechend auf alle registierten Geräte zurück greifen.


    Da ist überhaupt nix ein Designfehler. Es ist defacto einfach ein ausgereiftes System das dein Hab und Gut mit wenig nachdenken und zu tun automatisch absichert. Der Normale Benutzer der den ganzen Apple Konfigurationsassitenten schafft hat damit automatisch Schutz.

    Das ist ja richtig cool, jetzt geht die Port abfrage ohne Probleme. Da hat wohl der Server schlechte laune, aber man kann ja dank OpenSource den Dienst ja auch auf seinen eigenen Server betreiben :-D

    Ich bin leider nicht der Application Maintainer verschont mich da bitte mit Detailfragen :-)


    Wie hab ihr den das Tool den aufgerufen?

    Code
    1. curl https://ifconfig.co
    2. 127.0.0.1
    3. curl ifconfig.co/port/80
    4. {"ip":"127.0.0.1","port":80,"reachable":true}

    IP Abfragen funktioniert sowohl auf meinem Lokalen Client als auch Server.

    Da mein Lokaler Rechner keinen Port 80 offen hat, failt das natürlich, aber auf dem Server hingegen gehts.

    Wobei das Error Handling tatsächlich bisschen komisch wirkt eigentlich würde ich da den selben Json blob erwarten mit False ._.

    Ich mach da mal nen Issue auf.

    Grundsätzlich würde ich in Fragestellen ob ein Webhosting für sowas überhaupt der richtige Weg ist. Du kannst keinerlei Kontroller darüber wo deine Daten am Ende abgelegt werden.


    Bedeutet wenn du den Weg mit Webhosting gehen möchtest, muss du ohnehin schon auf dem Client ein verschlüsseltes Backup erzeugen. Mit Timemachine ist das in erster Linie überhaupt kein Problem encrypted Backups zu erzeugen. Jedoch hast du das grundsätzliche Problem das du in irgendeiner Form deine "Cloud" brauchbar in deinen Mac einbinden musst. Hierfür wirst du dich höchstwahrscheinlich mit Nextcloud am leichtesten tun. Ich hab das zwar nicht ausprobiert, aber nextcloud läuft glaube ich auch nur mit bisschen Hackmac auf dem Webhosting.


    Deswegen frage ich jetzt einfach mal anders herum was möchtest du den Konkret sichern? Bilder, Dokumente oder ein richtiges Backup ala Timemachine?