Beiträge von Skulduggery

    Eh du Experimente mit Undervolting machst - setz doch erstmal den Governor im Proxmox auf powersave. Proxmox hat da nämlich die Welt verdreht. Bei denen hast du standardmäßig ondemand (wie überall), aber ondemand ist bei denen wie performance unter einem default Debian. Und powersave ist bei denen das echte ondemand, was wir von default Debian kennen.

    Ich muss das auf meinen Ryzen noch evaluieren. Auf meinen EPYC System kann ich auf jeden Fall sagen das man aufs Powersaving über den Governor komplett verzichen kann. Ich hab da lange experementiert und studiert. Ergebnis hiervon ist, der Server läuft in Performance mit 15 Watt weniger Verbauch als wenn ich Powersave oder Ondemand setze.

    Habe ich am Anfang auch in meinem Homeserver gemacht. Irgendwann ist das total weggesackt und die Performance war grauenhaft.

    Ich habe dann lieber in einen simple PCIe HBA mit ein paar SATA Ports investiert. Glaube der kam um die 40€ und seitdem läuft es dauerhaft stabil.

    Joa PCIe habe ich aber leider nicht im Überfluss zur Verfügung ;) Vor allem ist mir die Performance absolut Banane nachdem ich nur Proxmox davon boote und Müll wie ISOs darauf ablege. Die VMs laufen auf NVMe, oder Hybrid Speicher :) Was mir hierzu noch einfällt. Man sollte ZFS und NVMe nicht machen. ZFS ist dafür absolut nicht gebaut und das wissen die Entwickler mittlerweile auch das da ganz viel im Argen liegt bzgl. Performance. Ich empfehle bei NVMe Raids mdadm.

    Ich hab da mal eine Frage. Warum OpenVPN? Wenns Kundenvorgabe ist, klärchen.


    Ich würde mir einfach das normale "Ubuntu" "image" ziehen, wenn das den vertrauenswürdig ist, und einfach einen Wireguard bauen. Dann sparst du dir faktisch schon den ganzen pain den du hier hast und als Kirsche auf der Sahne brauchst du nur ganze 6 Zeilen Konfiguration für deine Clients.


    Aber das nur als Tipp am Rande, OpenVPN ist einfach grusselig und für mich mittlerweile absolut keine Option mehr als VPN-Lösung. Das Ding ist ultra Langsam verbraucht Rechenleistung ohne Ende, die Konfiguration ist auch so ein Ding, ach habe ich schon gesagt das es langsam und kompliziert ist?

    Code: Bash
    $line_that_contains_needle = $(echo $multiline_variable|grep "needle");

    Kann mir das mal eben wer nach Perl übersetzen? :pinch:


    EDIT:

    ...ohne im Perl-Voodo durchzublicken bleibt mir nur durch zu iterieren:

    Perl: Perl
    foreach $line (split(/\n/, $multiline_variable)) {
      if (index($line, "needle") != -1) {
        $line_that_contains_needle = $line;
      }
    }

    Kannst du bitte einfach deine These in den Raum stellen. Mit deinem Code ohne Kontext verstehe ich nur das du etwas finden möchtest. Was es ist idk? Wie groß es ist idk? string,integer,enum ? idk


    Code Quality im Moment naja :D

    Hast eine PM.

    Naja ein Agent ist jetzt nix verwerfliches. Wenn dir WMI / SNMP abschmiert stehst du auch am Ende da. Beim Verbiegen der Strukturen gebe ich dir allerdings recht.

    Mensch lang ists her und das Ergebnis wie zu erwarten ein komplett anders. Ich wollte mal Feedback geben was aus dem ganzen Thema geworden ist. Vielleicht löst das ja bei manchen Leuten etwas warmes aus.


    Nach ewigen Recherchen bin ich beim Hersteller ASRock Rack auf das Mainboard X570D4U gestoßen. Man kann sich vorstellen das ich quasi vor Freude geplatzt bin als ich das Ding in den Händen halten durfte.


    Warum ist das Ding so platzend cool? Kurzer Überblick!

    • AM4 Sockel (Ryzen 5000 ahoi)
    • IPMI
    • 2 x Intel 1000
    • 2 x M.2 Slot (mehr noch dazu)
    • 4 x Memory ECC
    • 6 x PWM Lüfter
    • Overclocking

    Richtig gelesen! Man klatscht einfach den nächst besten Ryzen auf das Board und kann sich an richtig kuhlen Takten erfreuen. Noch viel besser, die Ryzen Chips machen auch ECC nachdem AMD es nicht zwangsläufig abwirft. Was nicht ganz so kuhl ist, ist die Tatsache das der zweite M.2 Slot nicht an die CPU gebunden ist, oder sich das Leben mit der x4 Verbindung des Chipsets teilt. Entsprechend auch die absolut berauschende Performance dessen Slots. Joa IPMI war für mich ohnehin der Killer, nachdem das richtig viel Life quality Punkte gibt und dann noch zwei mal 1 Gbit Intel Nics. Perfect!


    Im Endeffekt besteht der Build momentan aus folgenden Kompontenten:


    Gehäuse: 1 x Coolermaster N200

    Gehäuselüfter: 4 x Enermax Twister Pressure (Ja die sind nicht mehr existent)

    Mutterbrett: 1 x ASRock Rack X570D4U

    Prozessor: 1 x AMD Ryzen 5 3600

    Prozessorkühler: Scythe Ninja 5

    Arbeitsspeicher: 2 x Kingston 32GB DDR4 2666MHz ECC Unbuffered DIMM

    Super Festkörper Laufwerk (Storage): 2 x Samsung 960 Pro 250GB

    Festkörper Laufwerk (Cache): 2 x Toshiba OCZ TR 200 240GB

    Festkörper Laufwerk (OS): 2 x WD Green 120GB

    Fesplatten Laufwerk (Storage): 3 x WD Red 1TB

    Netzteil: Seasonic PX / GX (muss ich nochmal schauen) 750W


    Das ganze hab ich ins Gehäuse geworfen und im Endeffekt mich irgendwann dem Thema Undervolting / Overclocking gewidment. Warum das so cool ist. Gut das du dich das gerade frägst.


    Grundsätzlich hat so ein Ryzen 5 3600 einen Basistakt von Trocknen 3600MHz und boostet manchmal oder eben sehr oft auf 4200MHz. Was im Stromverbrauch bei 4-6 VMs in etwa 35-128W bedeutet, das ist richtig viel. Könnte man sagen. Grundsätzlich auch korrekt und hier kommt das undervolting in Kombination mit Overclocking ins Spiel. Das Ziel besteht darin dem ganzen Spannung weg zunehmen bei gleichwertiger Leistung. In meinen Fall bedeutet das 0.990V welche am Sockel anliegen bei einem kostanten Core Takt von 4000MHz, wobei ich das Boosten einfach abgeschalten habe, weils einfach keinen Sinn mehr gemacht hat. Das Ergebnis hat mir schon ein Lächeln ins Gesicht gezaubert. Denn nun brauche ich bei Volllast nur noch maximal 80W und der normal Betrieb hat sich leider nicht wirklich gebessert der dümpelt bei 35-45W umher. Aber für mich war das schon ein ziemlicher Erfolgt weil ich knapp 40W weniger brauche bei vergleichbarer Rechenleistung!


    Als OS kommt Proxmox zum Einsatz. Hierbei hab ich irgendwann was richtig kuhles aber auch irgendwie komisches getan. Man kann nämlich für den Onboard USB3.0 Anschluss einen Y-Adapter kaufen. Bedeutet ich hab im Gehäuse zwei USB3.0 Typ-A schnittstelllen zur Verfügung. An denen beiden habe ich meine 120GB WD Green SSDs im SATA-USB Geäuse vom Conrad angesteckt und am Ende ein ZFS Mirror mit Proxmox drauf geparkt. Der Mirror liefert konstante 420MB/s was mich recht zufrieden stellt. Bei den NVMe hab ich mit bisschen Backyard Science irgendwann heraus gefunden das Wärme irgendwie doof ist. Deswegen hab ich die irgendwann in Aluminium Kühler von Amazon gepackt und deutlich mehr Leistung und auch Lebenserwartung raus geholt. Die 3 x 1 TB HDDs laufen in einem ZRAID1 Verbund dem ein ZFS Mirror für Lesen / Schreiben vorgeschalten ist. Damit sind die HDDs nicht allzu langsam, aber leider immer noch keine Raketen.


    Mehr hab ich da jetzt aktuell nicht zu sagen ausser das es einfach geräusch arm läuft, im Verhältnis kaum Strom zieht und joa. Irgendwann sollte eigentlich noch eine Grafikkarte rein, aber irgendwie löst mein Arbeitsgerät momentan diese Probleme wunderbar.


    Falls Fragen oder Anregungen da sind, einfach her damit.

    Finds schon schade, weil man hätte das ja mal einfach so stehen lassen können und dann schauen. Aber schätze der PR-Stunt verlief anders als erwartet und das Feedback wurde (verständlicherweise) nicht so gut aufgenommen. So aus Sicht des eigenen Pet-Projects was dann so kritik bekommt.

    Vielleicht wird es ja was. Muss aber sagen dass mit icinga ein sehr gut aussehender und feature reicher Konkurrent genannt wurde.

    Grundsätzlich trifft das auf Icinga 2 durchaus zu. Leider / Zum Glück hab ich das nach meiner Laufbahn im Monitoring Bereich wohlwollend gegen Zabbix eingetauscht.


    Zabbix macht SNMP Monitoring und insgesamt mit Low Level Discovery so viel Life quality gut.


    Zu dem ist mir Icinga schon dezent oft explodiert, weil defacto kein Scheduler existiert. Der Daemon versucht beim „cold start“ alle Checks „auf einmal zu drücken“ was im Idealfall komplett in die Hose geht. Da muss man die Max Concurrent Checks erstmal in den Keller drehen was die Overall Performance massiv schmälert. Icinga ist unheimlich darauf angewiesen das die Check Execution time so niedrig wie auch nur

    möglich bleibt.


    Oder anders Formuliert wenn du Icinga skalieren möchtest brauchst du sehr sehr schlanke Plugins die wenig RAM

    brauchen und sehr kurze Execution Zeiten haben. Weil für jeden Check im Endeffekt ein komplett eigener Prozess gestartet wird. Ansonsten skaliert das einfach nicht schön.

    Noch eine kurze Rückmeldung,

    wir hatten das Problem Anfang der Woche ja schon so behoben, dass keine spürbaren Auswirkungen mehr vorhanden waren. Allerdings gab es noch ein paar messbare Fehler (die in der Praxis nicht zu bemerken waren) die heute repariert wurden. Hier war der Grund ein defektes Kabel hinter einer Abdeckung das dann getauscht wurde. Damit ist die Leitung jetzt auch in den Messungen komplett fehlerfrei. Hierzu noch ein Foto vom Tatort. Man sieht einen leichten Knick bzw. eine Quetschung, was bei Glasfaserkabeln aber schon zu messbaren Fehlern führen kann:


    sys_attachment.jpg

    Messbar im Sinne von erhöhte Dämpfung, oder Transmission Errors?


    Der Knick sieht nicht unbedingt wild aus wird aber vermutlich wenn ich Raten soll den Kern erwischt haben.

    Leider fehlt mir der Humor für sowas.


    Diese Laser sind eigentlich absolut kein Spass oder Spielzeug für die Menschliche Retina und sollten eigentlich für Laien nicht erhältlich sein.


    Bei manchen Lasern reicht stellenweise schon alleine, oder immer noch, die Reflexion der Wand aus, welche das Licht des Moduls zurückwirft, um in deiner Retina bleibende Schäden zu verursachen.


    Bei CWDM Module im +10G Bereich reicht die Leistung Gerüchte zufolge schon aus um Verbrennungen an deiner Haut vor zu nehmen.


    Zu mal du nie sicher sein kannst, das die Regeltechnik des Lasers nicht einen total Fuckup hinlegt und mit viel zu viel Energie um die Ecke kommt.


    Eigentlich sollte sowas Pflichtteil in einer IT Berufsausbildung sein, weil das absolut kein Spass ist. Mit IP-Rechnen kann ich meine Augen nicht zerstören, aber mit Unwissen über Laser schon.


    Zum Thema selbst.


    Mit 10Gtek würde ich sehr aufpassen. Deren Module hatte ich bisher einmal in die Wiege gelegt bekommen von jemanden anderes. Hab die mit großer Freude gegen vernünftige Module von FS.COM getauscht bzw. Entsorgt.


    Grund?


    Die Teile werden richtig Heiß im Laufenden Betrieb (+60° Celsius) was dazu führt das die Wellenlänge sich massiv verschiebt, was darin resultiert das man Tonneweise TX/RX Fehler im Betrieb hat. Das führt zu Tonnenweise Retransmission was deine Netzwerk Performance nicht unerheblich beeinträchtigt. Zumal mir es ohnehin ein Rätsel ist warum die so heiß werden. Das kann nur bedeuten das die richtig schlechte Laser verwenden oder die Spannungsregelung absoluter Mist ist.


    Ich hoffe auch das du deine Buchsen, SFP-Module und Keramikstecker vorher gereinigt hast ansonsten wird das sich auch irgendwann rächen.


    Bei Beschriftungen auf Patchpanel würde ich immer noch selbst prüfen ob das so ist. In deinem Fall prüfen ob die Faser wirklich OM4 ist. Grundsätzlich kannst du Physikalisch OM3 mit OM4 mischen, aber schön ist es nicht.

    Finde diese These genauso wie „Never change a running system“ absolut daneben.


    Ich schlafe deutlich besser wenn meine Maschine einfach durch den ACPI durchtreten kann ohne das auch nur das geringste dabei passiert. Naja ausser eben ein Neustart.


    Zu dem ich es luxuriös empfinde wenn ich meine Maschine über den Jordan treten kann. Sie mit Salt einfach neu provisioniere, weil ich Nutzdaten grundsätzlich nicht da lagere wo mein OS rum dümpelt. Somit kann ich changen und rebooten bis der Arzt kommt.


    Alles Dinge die ich mit einen Raspberry Pi komplett vergessen kann in der Standard Ausführung.


    Neue Errungenschaften wie eine NVMe Anbindung und NVMe Bootsupport beim Pi. Da sehe ich zum ersten mal Sinnvolle Anwendungen, weil mein Block device nicht mehr so schnell sterben wird. Zu mal du einen Raspberry Pi bisher direkt in die Tonne treten konntest sobald dein Kartenleser tot war.

    Junger padawan hab dich ich noch versucht warnen zu. US-8-150W lautet deine Antwort wenn dir acht Ports genügen, oder low budget US-8-60W.


    Die Klassifizierung die du hast bezieht sich auf Leistung pro Port. 802.3at ist das gesunde minimum das ein POE Switch pro Port liefern können sollte. 802.3bt versteht sich als Luxus noch im Moment. 802.3af ist nur interessant wenn du 802.3at reinlötest und 802.3af weg nimmst.


    Deine Berechnung ist leider unpräzise. Wenn alle auf deiner Seite stehen hast du 25.5W zur Verfügung. Die 4.5W sind als Verlustleistung bei 802.3at zu verstehen von den gelieferten 30W. Dann gehen zusätzlich noch 5W weg für den Eigenbedarf des Switch.


    Nachdem Bedarf und Verlustleistung als sehr Variabel anzusehen ist, behauptet ich das bei vier Kameras sense ist. Solltest du rein auf Kameras setzen. Mit einen Access Point und ist diese Kalkulation hingehen nicht mehr möglich. Da zieht dir ein AP Pro schon maximal 9W (U6-LR 16.5W fyi) laut Papier, real natürlich weniger, weil er nicht dauerhaft schreien wird. Dann kommt die Kamera mit 4W drauf und dann wars das mit Reserven. Bedeutet für dich 802.3bt oder die Vernünftigere Variante den Access Point direkt dediziert anzubinden und nur Kameras über den Flex.


    Zu mal ich in einer UniFi Landschaft davon abraten würde Fremdhersteller rein zu mischen. Auch eine schmerzhafte Lehre meinerseits. Genauso bei POE Budgets zu sparen. Spätestens wenn du den Switch neustarten tust und 20 Telefone + 5 APs dran hast weist du was ich meine. Abwärme darf auch nicht unterschätzt werden bei sowas.

    Echt spannend wie unterschiedlich die Erfahrungen so sind. Ich nutze Seafile seit fünf Jahren, hab die gleiche Instanz von Server zu Server, von Server zu Docker, von Disk zu Disk geschoben. Bis auf ein einzelnes Problem mit einem Database Migration Script immer fehlerfrei.


    IMHO gibt es Sicherheitstechnisch auch keinen Unterschied zwischen NextCloud und Seafile (wenns darum geht eben diese mit einem Proxy "abzusichern").

    Wie gesagt oberflächlich benutzbar, unten rum für mich ein Albtraum an Stack.

    Hm, ich habe einen Raspberry Pi 4 mit Unifi Controller am Laufen, und das seitdem Raspberry Pi 4 auf dem Markt ist. Funktioniert hervorragend. Die SD-Karte von SanDisk ist sogar noch von der zweiten Generation. Läuft auch. ¯\_(ツ)_/¯

    Mach mal nen Reboot ;)

    Klatsch einfach den Unifi Controller auf einem Raspberry Pi und brauchst den Cloud Key nicht :)

    Kannst dann aus der Ferne auf Raspberry zugreifen und z.B. aus Langeweile die Clients von Kunden rauskicken :P

    Wird auf dauer zu langsam und deine SD-Karten steckst du öfters nach als du dich anmelden kannst… Das Teil nutzt eine MongoDB für Metriken und Konfiguration.

    Ich nutze mittlerweile nur noch Nextcloud nachdem ich schon zu tief in die Bastellösung Seafile geschaut habe.


    Seafile mag oberflächlich halbwegs funktionieren aber unten sieht das ganze absolut traurig aus. Man kann die Software nicht anständig absichern mit einem Proxy ohne das alles kaputt geht. Zu mal bei mir random die Graphen irgendwie kaputt waren, das Ding mysql Funktionen called hat die es nicht gab, und von diesen Armutszeugnis an Elasticsearch embedding brauchen wir nicht anfangen. Glaube das Verschieben der Datenpartition ging auch nicht weil die Skripte absolut Banane waren. Zumal das Featureset absolut tot ist. Collabora ist das höchste der Gefühle. Nix Addons. Achja Geld fließt ab drei Benutzer ebenfalls in der Pro Version.


    Genug bashed.


    Dann lieber Nextcloud das deutlich ausgereifter ist und auch im Business Usecase mit seiner DSGVO Zertifizierung deutlich weiter kommt. Zu mal die Integration mit anderer Software mächtig ist. Legacy kram wie SMB und FTP auch eingebunden werden kann. Sharing System kann förderieren und ist recht detailliert in seiner Art und Beschaffenheit. E-Mail Client jeden Falls ist der Schrotthändler schlechthin, aber für minimale Anforderungen ok. App support ist auch gnadenlos für alle Plattformen ebenfalls gegeben.


    Am Ende muss das jeder für sich Entscheiden.

    Der Inform alleine wird dir nix bringen, die Geräte haben einen Heartbeat zum Controller, ist der weg, werden sie als dead markiert. Den Inform kannst du am einfachsten per DHCP setzen, weil UniFi Switch keinen richtigen persistent Memory haben. Zumindest keinen der sich per CLI nutzen lässt. Zu mal ich nicht richtig weiß was die da quatschen und wenn obs überhaupt vollwertig verschlüsselt wird. Im JSON blob stehen nämlich auch deine Site Kennwörter.


    Für mich macht das deutlich mehr Sinn als Insellösung, oder per Elitegerät mit Cloudkey. Nur den Cloudkey v2 bitte, der einser ist dead.


    https://help.ui.com/hc/en-us/a…18506997-UniFi-Ports-Used

    Ich würde dir hier die Einspeisung per Injector absolut nicht empfehlen wenn du noch Verbraucher dran packen willst. Da wirst du nicht genug Saft drauf kriegen für die ganze Show. Im Keller würde ich einen POE Switch mit ordentlichen Netzteil empfehlen nach dem der Fritzbox Switch ohnehin absolut lost ist. Aber das ist nur eine Empfehlung aus meiner persönlichen Erfahrung mit POE. Ich sag nur „Mensch ein AP wäre auch irgendwann praktisch!“


    Grundsätzlich gilt im Bereich Netzwerk, zumindest in meinen Kreisen, die These: „Du kannst nie zu viel planen, nur Zuwenig.“

    Hat jemand schon auf dem produktiven Server Debian auf Bullseye aktualisiert? Ich habe bei meinem Test-Server die Upgrade durchgeführt, scheint alles gut zu funktionieren.

    Hab Proxmox 7 etwas länger am laufen. Nix spannendes bis jetzt gefunden. Abgesehen davon das Debian nun für ein paar Tage wieder das Prädikat „modern“ tragen darf.