Beiträge von Skulduggery

    perryflynn https://dnsdist.org/


    Bisschen Trivia. Du willst nicht das dein Client einen DNS Failover selbst durchführt, weil das einfach Ewigkeiten dauert bis er zu einem sinnvollen Entschluss kommt. Bis dahin hat jeder schon seine Fritzbox tot debugged.


    DNSDist ist exakt das was du haben willst. Er monitort deine Upstreams aktiv und schmeißt kaputte direkt raus. Wenn sie wieder „healthy“ sind werden sie wieder akzeptiert. Dann gibts noch Tonnen weiterer Features die hier keine Relevanz haben. Wenn fragen da sind stell sie.


    Achja vergiss Blödsinn wie TCP Loadbalancer, die sind für richtige DNS Setups einfach zu „dumm“ schlichtweg.


    Und noch ein Nachtrag. Dein pihole Neustart solltest du mit anständigen Caching locker wegstecken.

    Grundsätzlich ist das ein Thema was die Distribution welche man verwendet betrifft. Nachdem nicht jede den selben Netzwerkmanager verwendet und bekanntlich viele Wege nach Rom führen. Entsprechend hat da jede Community auch so seine eigene Ideologie bei Namingschemes. Hatte in der Vergangenheit schon die eine oder andere Installation erlebt die nach jeden Neustart die Interfaces neu sortiert hat. Quasi welche Hardware meldet sich als erste, die bekommt die erste Zahl. Sowas kommt für mich in die Schublade Abendteuer. Bei Debian ist es so, wenn du ein VMware Interface hast ist das Scheme eth, verwendst du hingegen VirtIO ist es ens und wenn dir beides nicht gefällt regeln das udev Regeln für dich ganz statisch nach deinem belieben. :)

    Da würde ich das auch nie machen. Denn jedes Mal wenn es Probleme gibt pupst sonst der Provider rum "mimimi mit unserem Modem würde es gehen mimimi". Als ich damals noch Kabel hatte konnte man das Ding in einen Modem Mode versetzen dann hat man via DHCP die öffentliche IPv4 bekommen.

    Das ist tatsächlich mit der VBox heute noch so. Der lustige Teil an dieser Geschichte ist der, das man den "Homespot" (WLAN) deaktivieren muss im Kundenportal. Das ganze selbstverständlich mit einer Wartezeit von sieben Tagen(!) belegt ist. Nach sieben Tagen muss man sich noch drei "das kannst du nicht machen" Banner durch klicken und das Ding geht in den vollständigen Modembetrieb über. Das funktioniert so bei einem Bekannten seit der Umstellung mit einer USG ziemlich unspektakulär. Abgesehen davon das die USG bei Bandbreiten +100 Mbit irgendwie nicht wirklich mit irgendwas klar kommt.

    Kann mir jemand Sinnvoll erläutern warum diese PFSense überhaupt existiert? Es macht doch eigentlich mit sämtlicher Vernunft so überhaupt keinen Sinn solch eine Lösung bei Netcup zu betreiben. Die Fragilität ist schon garantiert, abgesehen davon das du auch richtig gut Geld in den Sand setzt für Produkte die du garnicht benötigst. Sowas lasse ich mir eingehen wenn du einen Physikalischen Server besitzt und Virtualisierung darauf betreibst. Wo ich Sinnvoll eine PFSense an meinen "Uplink" setzen kann und dann internes Statisches Routing betreibe und external NAT.


    Nimm doch einfach deine drei Server, bau dir einen Interconnect mit innernet, konfiguriere deine IPTables anstäding und hab Spaß. So kannst du 3 x Gigabit nutzen und musst nicht unnötig Geld durch die Gegend werfen für zusätzliche Adresse und hast du nicht alles gesehen. Davon abgesehen auch die Komplexität abnimmt, weil du nicht an fünf Stellen sicherstellen musst das es soweit funktioniert. Zumal 100Mbit (in der kostenlosen Version) für Interconnect und Backup sowieso keinen Spass macht. Selbst wenn du nur 100GB sichern möchtest.

    Wie lautet den der Name deines Interfaces nun? Es muss ja eine Ursache geben, warum dein Linux sich für einen neuen Namen hat, begeistern lassen.


    Ich möchte nur anmerken das Netcup, sich bestimmt auch nicht hinsetzen wird um eine udev Regel zu schreiben die sich um dein Problem kümmert.


    Kurz gesagt liefere bitte mehr Details. Ich weiß nicht was dein Linux für Netzwerkschnittstellen sieht, ich weiß nicht was in deiner Konfigurationsdatei steht. Ich weiß nicht was du oder dritte an deinem System in der Letzten Zeit für Änderungen durchgeführt hat.

    @All


    Falls jemand einen Anschluss bei der Telekom hat und mit gewissen Diensten nicht mehr so richtig Spielen kann. Liegt es höchstwahrscheinlich daran das die Telekom wohl Opfer eines BGP Hijacks ist. Momenten verschwindet alles offenbar in Bulgarien

    Quellen:

    https://twitter.com/rrbone_net/status/1420656486573805570

    https://twitter.com/MSFT365Status/status/1420649065876967429

    https://twitter.com/Telekom_hilft/status/1420659118814203904



    Update: 11:01 29. Juli 2021 Offenbar scheint es wieder zu passen. Als Ursache kann man wohl davon ausgehen das Telehouse BG BGP annoucements raus gehauen hat die absolut nicht zu ihren Spielfeld gehören. Das Telehouse NOC scheint wohl mit großer Freude daran zu sein E-Mails zu bearbeiten. - Nicht. Microsoft hat wohl entsprechend, wie die meisten anderen BGP Mitspieler wohl die Aussetzenkarte gespielt mit umrouten durch andere "Channels". Möglicherweise scheint, aber auch die Ursache zu sein, dass man wieder mal es nicht geschissen bekommen hat BGP ordentlich abzusichern... Man könnte fast meinen das es noch nie vorgekommen wäre *hus* Veri *hust* zon *hust*. Ich referenziere jetzt einfach mal auf was Lehrreiches: https://blog.cloudflare.com/rpki-details/ und Yes es ist nicht die total security. Die werden wir in der IT zu 100% nie erreichen, weil das eine Prozent von 99% immer dem Zufall gehören wird.


    Quellen:

    https://twitter.com/rrbone_net/status/1420668429992857600

    https://twitter.com/MSFT365Status/status/1420666557320028162

    Lustig, SOGO ist irgendwie aus dem Telekom Festnetz nicht erreichbar. Per 5G übers Telekom Mobilfunk hingegen schon... Ich mag IT.


    Oh wow nevermind. DHCP vergibt kein DNS mehr ô.ô


    Ok nein es geht selbst mit 9.9.9.9 Hardcoded kein SoGo. Beautiful.


    Vergesst es komplett. Windows und IPv6 sind einfach ein Paket der Freude X(


    Joa nun hab ich eine Site-Load-Time von ich werde langsam wirklich alt. Oder auch nicht. Nein ist kaputt, aus dem Festnetz zumindest.


    Dann hald Thunderbird.

    So nachdem ich auf der Arbeit jetzt ganz lustiges Spielzeug habe, werde ich wohl meinem NUC noch einen Kollegen daneben stellen.


    Hab nun seit mehreren Jahren ein Coolermaster N200 Case rumstehen und bisher kein brauchbares und vor allem bezahlbares Mini-ITX Board gefunden. Neben Beschaffung ist ja der Betrieb von sowas mittlerweile auch ein Faktor der berücksichtigt werden muss. Leider bekomme ich den Strom nicht mehr für 8 Cent den KW/h geschenkt sondern für irgendwas mit 28 Cent pro KW/h, aua.


    Ich muss leider sagen, das seit dem AMD mit seinen ZEN Chips auf dem Markt ist, Intel für mich längerfristig ehr eine Titanic geworden ist. Das fängt für mich schon da an wieviele Tausende verschiende Gattungen an Intel CPUs es momentan gibt, dem Release und Dead Zyklus der Chips über den Fakt das diese Dinger teilweise massiv über die angebene TDP hinweg Strom ziehen.


    Nun kommen wir zum Spannenden Teil.


    Das N200 Gehäuse kann nur Mainboards mit M-ATX oder Mini-ITX aufnehmen. Das besagte Mainboard M11SDV-4C-LN4F erfüllt dieses Kriterum mit Mini-ITX schon mal. Nachdem ich das ganze auf Arbeit mit 80 Watt und ein bis zwei SSDs betreiben kann, ist auch der Punkt Stromverbrauch recht akzeptabel.


    Beim SoC handelt es sich um den AMD EPYC Embedded 3151 der mit vier 2700 Mhz Kernen und acht Threads bei 45 Watt TDP daher kommt. Supermicro spendiert dem ganze einen ordentlichen Passivkühler, jedoch ist es ratsam die Luft im Gehäuse in Bewegung zu halten. Dafür bietet das Board drei PWM Ports die man zur Not auch splitten kann. Ich persönlich werde wohl bei dieser Lösung auf drei bis vier 120mm Lüfter setzten.


    Eine PicoPSU (leider ein Amazon Link) wird als Stromlieferant in der Region 90-120 Watt herangezogen. Falls nicht bekannt ist, was eine PicoPSU ist. Bei einer PicoPSU handelt es sich um ein ATX Steckernetzteil welches von einem AC/DC Netzteil gespeist wird und gerade in den Regionen unter 100 Watt extrem effizient sein kann. Die suche nach fertigen ATX Netzteilen kann man sich bei unter 300 Watt sparen, da ist relativ tote Hose. Vor allem wenn man probiert 60 Watt an so einem Netzteil zu verbraten. Was auch sehr cool ist, das es für das PicoPSU Netzteil eine PCI Blende gibt, den den 12V sauber raus führt.


    Nun das Board hat auch ein Feature was ich bei Supermicro schon immer sehr gemocht habe. SATADOM. Der "goldene" Port auf dem Mainboard. SATADOM ist eine "mini" SSD welche man einfach auf den SATA Port steckt und quasi schon spass haben kann. Die Dinger haben zwar kein so olles Preis/Leistungverhältnis bieten dafür aber wesentlich robusteren Speicher gegenüber SD-Karten und USB-Sticks. Hier wird wohl mein Hypervisor Proxmox sein zuhause finden. Dann bleiben nur noch drei SATA Ports übrig, dass führt mich zum nächsten Thema.


    Die Ports sind definitv zu wenig, denn das Gehäuse kann 3 x 3,5" und 4 x 2,5 " nativ aufnehmen. Hierfür werde ich wohl eine DELL HBA330 oder H310 Karte verwenden welche im IT-Mode crossflashed wird, den ich mag RAID-Controller einfach nicht. Vor allem nicht wenn sie kaputt gehen. Nun hab ich, aber noch ein weiteres Thema, es gibt nur einen X16 PCI-E Gen 3 Slot. Die HBA-Karte braucht aber nur x8, warum sollte man da die anderen verbleibenden acht Lanes einfach weg werfen? Hierfür werde ich eine Bifurication Karte von Supermicro wohl ran ziehen, die mir den x16 Slot auf zwei x8 Slots auf bricht. Somit kann ich eine zweite M.2 NVMe SSD verbauen, neben der NVMe, welche bereits auf dem Board verbaut ist. Somit habe ich am Ende des Tages folgendes:

    • 1 x SATADOM (OS)
    • 2 x NVMe SSD (High Performance),
    • 4 x SATA SSD (Performance)
    • 3 x SATA HDD (Capicity Infrequent)
    • 3 x SATA HDD (Capicity Rarely)

    In anderne Worten:

    Die 240GB SSD's werden wohl auf länger Sicht gegen WD Red SA500 NAS SATA SSD gewechselt. Hier muss ich schauen, in wiefern ich den Storage beanspruche obs 500GB oder 1TB werden. Genauso werden die 1 TB Spindel entweder bleiben, und oder durch ein 3,5" Verbund ergänzt bzw. ersetzt. Fürs Backup hab ich keine direkten gedanken. Hier soll das Capicity Layer erstmal herhalten und aufdauer wird es vermutlich ein Coldbackup auf mehrere externe HDD's. Kann mir da auch vorstellen das eine Externe HDD am NUC hängt und darauf der Proxmox Backup Server läuft welches das Blockdevice als Destination nutzt.


    Beim Thema Netzwerk kann man eigentlich nicht mehr wirklich viel hinzufügen, das Board verfügt über dediziertes IPMI und einen I350 Intel Chip mit vier Gbit Interfaces, welches denke ich vorne und hinten reichen wird.


    Beim Arbeitsspeicher lässt das Board mit dem Formfaktor denke ich auch keinerlei Wünsche offen, vor allem für RAM liebhaber. Das ganze Board schluckt 512 GB RAM wenn mans braucht. Ich werde da klein anfangen und mich mit 2 x 16GB DDR-4 ECC zufrieden geben. Hier ist auch wieder anzumerken das es nicht nur 512 GB maximal schafft sondern auch in allen Variationen: non-ECC, regECC und ECC.


    Mir fällt jetzt leider nicht mehr viel ein was man hier noch erwähnen könnte. Falls jemand Vorschläge hat kann er sie gerne machen, vielleicht dient das auch als Denkanstoß für den einen oder anderen. Ich bin zumindest richtig Glücklich wenn diese ganze Show mit einer 90 bzw. 120 Watt PicoPSU auf dauer laufen kann.

    Hm so betrachtet natürlich verständlich, aber ich würde dem ganzen noch ein paar Tage Zeit geben. Die haben ja jetzt angefangen mit der Implementierung von SDN und bin da tatsächlich gespannt was daraus wird.


    Grundsätzlich kannst du doch auch Proxmox einfach durch Ansible hindurch provisionieren?

    Hat jemand weitere Details zu den oben besagten Fehlermeldungen? (Den Netcup Support hab ich bereits über eine andere E-Mail informiert)


    Mich würde beinahe der Technische Hintergrund dazu reizen, was mir mein armes SoGo den versucht zu erzählen.


    P.S.: Trozt langjähriger IT Erfahrung hab ich bisher immer erfolgreich einen Bogen um diese Technik "E-Mail Server" gemacht. Pls no haue ;)


    Grüße,

    Falls jemand Hardware für Smarthome sucht. Ich hab mir jetzt einen Intel NUC mit J4005 (2x2,0GHz) geholt, 2 x 4GB DDR-4 RAM rein geworfen für ca. 145€. Dann noch eine 120GB SSD verbaut die noch rumlag und direkt mit Proxmox betankt. Was soll man sagen der NUC beherbergt aktuell vier VMs: RaspberryMatic, HomeAssistant, Unifi Network Controller, PiHole und macht hier doch einen erschreckend guten performanten Eindruck. Die Leute die eine CCU3 schon mal in der Hand hatten wissen vielleicht wie langsam diese ganze Bude mit dem Pi3 ist, dagegen ist ein x86_64 Nuc mit "lausigen" 2x2,0Ghz ein Porsche. Mir fehlt nur noch der RF-USB-Stick für Homematic IP und dann kann es da bei mir langsam aber sicher losgehen.

    Momentan wird dieser Thread es definitv nicht zum Level Repräsentativ schaffen.


    Hier spielen so viele Sonne, Mond, Sterne Faktoren mit das du da wahrscheinlich drei mal minimum pro System kompilieren musst, um einen Halbwegs brauchbaren Zwischenwert zu bekommen. Dazu kommen noch die Entscheidenen Faktoren wie Makeconfig etc. pp. da kann ich mir Frankenstein bauen der vielleich 2 Sekunden braucht, aber mit einer verstellten Flag vielleicht unter Umständen 2938484 Jahre.


    Desweiteren ist CentOS 7 so eine Asbach Uralt Distro das dir vermutlich jede "moderne" Distro davon kompiliert. Angefangen beim 3.10er Kernel über 4.8er GCC.. ach lassen wir das besser.


    Wenn das hier was halbwegs brauchares werden soll, würde ich folgenden Spielregeln empfehlen:


    Alpine Linux Standard 3.12.0

    Sharing des Kernel (uname -r)

    Sharing der Disk config (lsblk)

    Sharing der Distro (cat /etc/os-release)

    Sharing der Make Config

    Sharing des Prozessors (cat /etc/procinfo)

    Sharing der genutzen Befehle

    Posting des Konsolenoutput


    Und am Ende spielen immer noch genug andere Faktoren mit die sich nicht wirklich in den Griff kriegen lassen. Kurz gesagt man kann machen was man möchte es wird immer Abweichungen geben die zwischen 0 und 100 liegen können.