Bin immer noch auf der Suche, gibt es so etwas wie einen Android Emulator der auf nem vps laufen kann, am besten mit webui? Sonst müsste ich in der Tat nen Windows auf nen vps bügeln ?
bluestack
Bin immer noch auf der Suche, gibt es so etwas wie einen Android Emulator der auf nem vps laufen kann, am besten mit webui? Sonst müsste ich in der Tat nen Windows auf nen vps bügeln ?
bluestack
So far I know werden im Netzwerk engineering keine Klassen mehr verwendet!
VLSM is the future obwohl es schon älter ist…
QuoteSaying that an ISP is in charge of a Class C network is similarly obsolete. Addresses are distributed completely classless by the RIRs (Regional Internet Registries, the organisations responsible for delegating addresses to ISPs and businesses with their own independent addresses).
Source: https://networkengineering.sta…dress-classes/19854#19854
Icv verstehe zwar dein Ziel nicht so wirklich, aber bei Caddy kann ich knowledge bieten. Macht aus „Serverless“ meistens „Painless“, hat ACME bereits in der DNA und ist ziemlich simple gehalten.
Falls jemand sowas wie ein Wireguard Endpoint Router sucht. Den kann ich zumindest selbst approved (Trust me bro) hierfür den EdgeRouter 4 von Ubiquiti ans Herz legen. Für 170€ kriegt man da feines was median (Geprüft über einen Zeitraum von 15 Minuten mit iPerf3) 550Mbit Wireguard Durchsatz schaft.
Theoretisch gibts noch den EdgeRouter X / Lite für weniger Geld. Da bin ich bei Recherchen recht häufig auf die Zahl 100-150 Mbit gestoßen. Das kann ich aber leider nicht prüfen, wegen Mangelder Hardware.
Eh du Experimente mit Undervolting machst - setz doch erstmal den Governor im Proxmox auf powersave. Proxmox hat da nämlich die Welt verdreht. Bei denen hast du standardmäßig ondemand (wie überall), aber ondemand ist bei denen wie performance unter einem default Debian. Und powersave ist bei denen das echte ondemand, was wir von default Debian kennen.
Ich muss das auf meinen Ryzen noch evaluieren. Auf meinen EPYC System kann ich auf jeden Fall sagen das man aufs Powersaving über den Governor komplett verzichen kann. Ich hab da lange experementiert und studiert. Ergebnis hiervon ist, der Server läuft in Performance mit 15 Watt weniger Verbauch als wenn ich Powersave oder Ondemand setze.
Habe ich am Anfang auch in meinem Homeserver gemacht. Irgendwann ist das total weggesackt und die Performance war grauenhaft.
Ich habe dann lieber in einen simple PCIe HBA mit ein paar SATA Ports investiert. Glaube der kam um die 40€ und seitdem läuft es dauerhaft stabil.
Joa PCIe habe ich aber leider nicht im Überfluss zur Verfügung Vor allem ist mir die Performance absolut Banane nachdem ich nur Proxmox davon boote und Müll wie ISOs darauf ablege. Die VMs laufen auf NVMe, oder Hybrid Speicher
Was mir hierzu noch einfällt. Man sollte ZFS und NVMe nicht machen. ZFS ist dafür absolut nicht gebaut und das wissen die Entwickler mittlerweile auch das da ganz viel im Argen liegt bzgl. Performance. Ich empfehle bei NVMe Raids mdadm.
Ich hab da mal eine Frage. Warum OpenVPN? Wenns Kundenvorgabe ist, klärchen.
Ich würde mir einfach das normale "Ubuntu" "image" ziehen, wenn das den vertrauenswürdig ist, und einfach einen Wireguard bauen. Dann sparst du dir faktisch schon den ganzen pain den du hier hast und als Kirsche auf der Sahne brauchst du nur ganze 6 Zeilen Konfiguration für deine Clients.
Aber das nur als Tipp am Rande, OpenVPN ist einfach grusselig und für mich mittlerweile absolut keine Option mehr als VPN-Lösung. Das Ding ist ultra Langsam verbraucht Rechenleistung ohne Ende, die Konfiguration ist auch so ein Ding, ach habe ich schon gesagt das es langsam und kompliziert ist?
Kann mir das mal eben wer nach Perl übersetzen?
EDIT:
...ohne im Perl-Voodo durchzublicken bleibt mir nur durch zu iterieren:
Kannst du bitte einfach deine These in den Raum stellen. Mit deinem Code ohne Kontext verstehe ich nur das du etwas finden möchtest. Was es ist idk? Wie groß es ist idk? string,integer,enum ? idk
Code Quality im Moment naja
Display MoreHat hier zufällig jemand ein Icinga2 mit dem vSphere Modul am laufen?
Ich wollte mir das einfach mal anschauen, aber stehe momentan total auf dem Schlauch
Die Requirements sagen man brauch diese Module:
- ipl (>=0.4.0)
- incubator (>=0.5.0)
- reactbundle (>=0.7.0)
Das incubator Modul ist auch kein Problem und lässt sich wie auf Github beschrieben installieren. Die anderen beiden Module zeigen aber direkt ein "DEPRECATED" und man wird auf die Nachfolger verwiesen. Die sind aber scheinbar keine Module, die man über den Befehl icingacli module enableaktiviert, dementsprechend erkennt das vSphere Modul die auch nicht.
Bei beiden steht natürlich noch da, dass ein paar andere Module noch auf der alten Version basieren könnten. Mein Icinga Web 2 ist auf Version 2.9.3 und dementsprechend sollte das, wenn ich das richtig verstanden habe, auch schon soweit integriert sein. Der Director wird dort als Beispiel erwähnt.
Das "mehr" in den Klammern verweist jeweils auf die alten Versionen. Aber gleichzeitig steht in der Icinga Doku: "Once you got Icinga Web 2 up andrunning, all required dependencies should already be there."
Jetzt ist meine eigentliche Frage... ist das normal und gewollt, dass man die "deprecated" Versionen installiert? oder übersehe ich etwas offensichtliches?
Hast eine PM.
Display Morebeim Monitoring gilt irgendwie analoges wie beim Backup;
wenn ma am zum monitorenden System was installieren muss,
um es dann in ein Monitoring "einzuhängen" hat man bereits was falsch gemacht;
analoges beim Backup, wenn man hier das System deutlich verändern muss,
nur um zu backupen, dann hat man ebenfalls aufs falsche Pferd gesetzt;
Naja ein Agent ist jetzt nix verwerfliches. Wenn dir WMI / SNMP abschmiert stehst du auch am Ende da. Beim Verbiegen der Strukturen gebe ich dir allerdings recht.
Display MoreSo nachdem ich auf der Arbeit jetzt ganz lustiges Spielzeug habe, werde ich wohl meinem NUC noch einen Kollegen daneben stellen.
Hab nun seit mehreren Jahren ein Coolermaster N200 Case rumstehen und bisher kein brauchbares und vor allem bezahlbares Mini-ITX Board gefunden. Neben Beschaffung ist ja der Betrieb von sowas mittlerweile auch ein Faktor der berücksichtigt werden muss. Leider bekomme ich den Strom nicht mehr für 8 Cent den KW/h geschenkt sondern für irgendwas mit 28 Cent pro KW/h, aua.
Ich muss leider sagen, das seit dem AMD mit seinen ZEN Chips auf dem Markt ist, Intel für mich längerfristig ehr eine Titanic geworden ist. Das fängt für mich schon da an wieviele Tausende verschiende Gattungen an Intel CPUs es momentan gibt, dem Release und Dead Zyklus der Chips über den Fakt das diese Dinger teilweise massiv über die angebene TDP hinweg Strom ziehen.
Nun kommen wir zum Spannenden Teil.
Das N200 Gehäuse kann nur Mainboards mit M-ATX oder Mini-ITX aufnehmen. Das besagte Mainboard M11SDV-4C-LN4F erfüllt dieses Kriterum mit Mini-ITX schon mal. Nachdem ich das ganze auf Arbeit mit 80 Watt und ein bis zwei SSDs betreiben kann, ist auch der Punkt Stromverbrauch recht akzeptabel.
Beim SoC handelt es sich um den AMD EPYC Embedded 3151 der mit vier 2700 Mhz Kernen und acht Threads bei 45 Watt TDP daher kommt. Supermicro spendiert dem ganze einen ordentlichen Passivkühler, jedoch ist es ratsam die Luft im Gehäuse in Bewegung zu halten. Dafür bietet das Board drei PWM Ports die man zur Not auch splitten kann. Ich persönlich werde wohl bei dieser Lösung auf drei bis vier 120mm Lüfter setzten.
Eine PicoPSU (leider ein Amazon Link) wird als Stromlieferant in der Region 90-120 Watt herangezogen. Falls nicht bekannt ist, was eine PicoPSU ist. Bei einer PicoPSU handelt es sich um ein ATX Steckernetzteil welches von einem AC/DC Netzteil gespeist wird und gerade in den Regionen unter 100 Watt extrem effizient sein kann. Die suche nach fertigen ATX Netzteilen kann man sich bei unter 300 Watt sparen, da ist relativ tote Hose. Vor allem wenn man probiert 60 Watt an so einem Netzteil zu verbraten. Was auch sehr cool ist, das es für das PicoPSU Netzteil eine PCI Blende gibt, den den 12V sauber raus führt.
Nun das Board hat auch ein Feature was ich bei Supermicro schon immer sehr gemocht habe. SATADOM. Der "goldene" Port auf dem Mainboard. SATADOM ist eine "mini" SSD welche man einfach auf den SATA Port steckt und quasi schon spass haben kann. Die Dinger haben zwar kein so olles Preis/Leistungverhältnis bieten dafür aber wesentlich robusteren Speicher gegenüber SD-Karten und USB-Sticks. Hier wird wohl mein Hypervisor Proxmox sein zuhause finden. Dann bleiben nur noch drei SATA Ports übrig, dass führt mich zum nächsten Thema.
Die Ports sind definitv zu wenig, denn das Gehäuse kann 3 x 3,5" und 4 x 2,5 " nativ aufnehmen. Hierfür werde ich wohl eine DELL HBA330 oder H310 Karte verwenden welche im IT-Mode crossflashed wird, den ich mag RAID-Controller einfach nicht. Vor allem nicht wenn sie kaputt gehen. Nun hab ich, aber noch ein weiteres Thema, es gibt nur einen X16 PCI-E Gen 3 Slot. Die HBA-Karte braucht aber nur x8, warum sollte man da die anderen verbleibenden acht Lanes einfach weg werfen? Hierfür werde ich eine Bifurication Karte von Supermicro wohl ran ziehen, die mir den x16 Slot auf zwei x8 Slots auf bricht. Somit kann ich eine zweite M.2 NVMe SSD verbauen, neben der NVMe, welche bereits auf dem Board verbaut ist. Somit habe ich am Ende des Tages folgendes:
- 1 x SATADOM (OS)
- 2 x NVMe SSD (High Performance),
- 4 x SATA SSD (Performance)
- 3 x SATA HDD (Capicity Infrequent)
3 x SATA HDD (Capicity Rarely)In anderne Worten:
- 1 x 29GB ( 1 x 32GB Supermicro SSD-DM032-SMCMVN1)
- 1 x 476GB RAID-1 ( 2 x 512GB 960 PRO NVMe M.2 SSD)
- 1 x 670GB RAID-5 ( 4 x 240GB Toshiba OCZ TR 200)
- 1 x 1862GB RAID-5 ( 3 x 1TB WD Red Plus 2.5")
Die 240GB SSD's werden wohl auf länger Sicht gegen WD Red SA500 NAS SATA SSD gewechselt. Hier muss ich schauen, in wiefern ich den Storage beanspruche obs 500GB oder 1TB werden. Genauso werden die 1 TB Spindel entweder bleiben, und oder durch ein 3,5" Verbund ergänzt bzw. ersetzt. Fürs Backup hab ich keine direkten gedanken. Hier soll das Capicity Layer erstmal herhalten und aufdauer wird es vermutlich ein Coldbackup auf mehrere externe HDD's. Kann mir da auch vorstellen das eine Externe HDD am NUC hängt und darauf der Proxmox Backup Server läuft welches das Blockdevice als Destination nutzt.
Beim Thema Netzwerk kann man eigentlich nicht mehr wirklich viel hinzufügen, das Board verfügt über dediziertes IPMI und einen I350 Intel Chip mit vier Gbit Interfaces, welches denke ich vorne und hinten reichen wird.
Beim Arbeitsspeicher lässt das Board mit dem Formfaktor denke ich auch keinerlei Wünsche offen, vor allem für RAM liebhaber. Das ganze Board schluckt 512 GB RAM wenn mans braucht. Ich werde da klein anfangen und mich mit 2 x 16GB DDR-4 ECC zufrieden geben. Hier ist auch wieder anzumerken das es nicht nur 512 GB maximal schafft sondern auch in allen Variationen: non-ECC, regECC und ECC.
Mir fällt jetzt leider nicht mehr viel ein was man hier noch erwähnen könnte. Falls jemand Vorschläge hat kann er sie gerne machen, vielleicht dient das auch als Denkanstoß für den einen oder anderen. Ich bin zumindest richtig Glücklich wenn diese ganze Show mit einer 90 bzw. 120 Watt PicoPSU auf dauer laufen kann.
Mensch lang ists her und das Ergebnis wie zu erwarten ein komplett anders. Ich wollte mal Feedback geben was aus dem ganzen Thema geworden ist. Vielleicht löst das ja bei manchen Leuten etwas warmes aus.
Nach ewigen Recherchen bin ich beim Hersteller ASRock Rack auf das Mainboard X570D4U gestoßen. Man kann sich vorstellen das ich quasi vor Freude geplatzt bin als ich das Ding in den Händen halten durfte.
Warum ist das Ding so platzend cool? Kurzer Überblick!
Richtig gelesen! Man klatscht einfach den nächst besten Ryzen auf das Board und kann sich an richtig kuhlen Takten erfreuen. Noch viel besser, die Ryzen Chips machen auch ECC nachdem AMD es nicht zwangsläufig abwirft. Was nicht ganz so kuhl ist, ist die Tatsache das der zweite M.2 Slot nicht an die CPU gebunden ist, oder sich das Leben mit der x4 Verbindung des Chipsets teilt. Entsprechend auch die absolut berauschende Performance dessen Slots. Joa IPMI war für mich ohnehin der Killer, nachdem das richtig viel Life quality Punkte gibt und dann noch zwei mal 1 Gbit Intel Nics. Perfect!
Im Endeffekt besteht der Build momentan aus folgenden Kompontenten:
Gehäuse: 1 x Coolermaster N200
Gehäuselüfter: 4 x Enermax Twister Pressure (Ja die sind nicht mehr existent)
Mutterbrett: 1 x ASRock Rack X570D4U
Prozessor: 1 x AMD Ryzen 5 3600
Prozessorkühler: Scythe Ninja 5
Arbeitsspeicher: 2 x Kingston 32GB DDR4 2666MHz ECC Unbuffered DIMM
Super Festkörper Laufwerk (Storage): 2 x Samsung 960 Pro 250GB
Festkörper Laufwerk (Cache): 2 x Toshiba OCZ TR 200 240GB
Festkörper Laufwerk (OS): 2 x WD Green 120GB
Fesplatten Laufwerk (Storage): 3 x WD Red 1TB
Netzteil: Seasonic PX / GX (muss ich nochmal schauen) 750W
Das ganze hab ich ins Gehäuse geworfen und im Endeffekt mich irgendwann dem Thema Undervolting / Overclocking gewidment. Warum das so cool ist. Gut das du dich das gerade frägst.
Grundsätzlich hat so ein Ryzen 5 3600 einen Basistakt von Trocknen 3600MHz und boostet manchmal oder eben sehr oft auf 4200MHz. Was im Stromverbrauch bei 4-6 VMs in etwa 35-128W bedeutet, das ist richtig viel. Könnte man sagen. Grundsätzlich auch korrekt und hier kommt das undervolting in Kombination mit Overclocking ins Spiel. Das Ziel besteht darin dem ganzen Spannung weg zunehmen bei gleichwertiger Leistung. In meinen Fall bedeutet das 0.990V welche am Sockel anliegen bei einem kostanten Core Takt von 4000MHz, wobei ich das Boosten einfach abgeschalten habe, weils einfach keinen Sinn mehr gemacht hat. Das Ergebnis hat mir schon ein Lächeln ins Gesicht gezaubert. Denn nun brauche ich bei Volllast nur noch maximal 80W und der normal Betrieb hat sich leider nicht wirklich gebessert der dümpelt bei 35-45W umher. Aber für mich war das schon ein ziemlicher Erfolgt weil ich knapp 40W weniger brauche bei vergleichbarer Rechenleistung!
Als OS kommt Proxmox zum Einsatz. Hierbei hab ich irgendwann was richtig kuhles aber auch irgendwie komisches getan. Man kann nämlich für den Onboard USB3.0 Anschluss einen Y-Adapter kaufen. Bedeutet ich hab im Gehäuse zwei USB3.0 Typ-A schnittstelllen zur Verfügung. An denen beiden habe ich meine 120GB WD Green SSDs im SATA-USB Geäuse vom Conrad angesteckt und am Ende ein ZFS Mirror mit Proxmox drauf geparkt. Der Mirror liefert konstante 420MB/s was mich recht zufrieden stellt. Bei den NVMe hab ich mit bisschen Backyard Science irgendwann heraus gefunden das Wärme irgendwie doof ist. Deswegen hab ich die irgendwann in Aluminium Kühler von Amazon gepackt und deutlich mehr Leistung und auch Lebenserwartung raus geholt. Die 3 x 1 TB HDDs laufen in einem ZRAID1 Verbund dem ein ZFS Mirror für Lesen / Schreiben vorgeschalten ist. Damit sind die HDDs nicht allzu langsam, aber leider immer noch keine Raketen.
Mehr hab ich da jetzt aktuell nicht zu sagen ausser das es einfach geräusch arm läuft, im Verhältnis kaum Strom zieht und joa. Irgendwann sollte eigentlich noch eine Grafikkarte rein, aber irgendwie löst mein Arbeitsgerät momentan diese Probleme wunderbar.
Falls Fragen oder Anregungen da sind, einfach her damit.
Finds schon schade, weil man hätte das ja mal einfach so stehen lassen können und dann schauen. Aber schätze der PR-Stunt verlief anders als erwartet und das Feedback wurde (verständlicherweise) nicht so gut aufgenommen. So aus Sicht des eigenen Pet-Projects was dann so kritik bekommt.
Vielleicht wird es ja was. Muss aber sagen dass mit icinga ein sehr gut aussehender und feature reicher Konkurrent genannt wurde.
Grundsätzlich trifft das auf Icinga 2 durchaus zu. Leider / Zum Glück hab ich das nach meiner Laufbahn im Monitoring Bereich wohlwollend gegen Zabbix eingetauscht.
Zabbix macht SNMP Monitoring und insgesamt mit Low Level Discovery so viel Life quality gut.
Zu dem ist mir Icinga schon dezent oft explodiert, weil defacto kein Scheduler existiert. Der Daemon versucht beim „cold start“ alle Checks „auf einmal zu drücken“ was im Idealfall komplett in die Hose geht. Da muss man die Max Concurrent Checks erstmal in den Keller drehen was die Overall Performance massiv schmälert. Icinga ist unheimlich darauf angewiesen das die Check Execution time so niedrig wie auch nur
möglich bleibt.
Oder anders Formuliert wenn du Icinga skalieren möchtest brauchst du sehr sehr schlanke Plugins die wenig RAM
brauchen und sehr kurze Execution Zeiten haben. Weil für jeden Check im Endeffekt ein komplett eigener Prozess gestartet wird. Ansonsten skaliert das einfach nicht schön.
Hm gabs da noch spannendes Feedback auf das Thema?
Noch eine kurze Rückmeldung,
wir hatten das Problem Anfang der Woche ja schon so behoben, dass keine spürbaren Auswirkungen mehr vorhanden waren. Allerdings gab es noch ein paar messbare Fehler (die in der Praxis nicht zu bemerken waren) die heute repariert wurden. Hier war der Grund ein defektes Kabel hinter einer Abdeckung das dann getauscht wurde. Damit ist die Leitung jetzt auch in den Messungen komplett fehlerfrei. Hierzu noch ein Foto vom Tatort. Man sieht einen leichten Knick bzw. eine Quetschung, was bei Glasfaserkabeln aber schon zu messbaren Fehlern führen kann:
Messbar im Sinne von erhöhte Dämpfung, oder Transmission Errors?
Der Knick sieht nicht unbedingt wild aus wird aber vermutlich wenn ich Raten soll den Kern erwischt haben.
Display MoreDa wir hier im Smalltalk-Bereich sind, nun zum lustigen Abschluss noch ein altbekannter Netzwerktechniker-Witz:
Preisfrage: Wie oft kann man in eine mit Laser bespielte Glasfaser schauen?
Deine Antwort lautet ein mal?
... sorry ... leider falsch!
Deine Antwort lautet "weiß nicht"?
... na denk nochmal scharf nach!
Also, die richtige Antwort: Zwei mal natürlich!
1x mit dem rechten Auge
1x mit dem linken Auge
Leider fehlt mir der Humor für sowas.
Diese Laser sind eigentlich absolut kein Spass oder Spielzeug für die Menschliche Retina und sollten eigentlich für Laien nicht erhältlich sein.
Bei manchen Lasern reicht stellenweise schon alleine, oder immer noch, die Reflexion der Wand aus, welche das Licht des Moduls zurückwirft, um in deiner Retina bleibende Schäden zu verursachen.
Bei CWDM Module im +10G Bereich reicht die Leistung Gerüchte zufolge schon aus um Verbrennungen an deiner Haut vor zu nehmen.
Zu mal du nie sicher sein kannst, das die Regeltechnik des Lasers nicht einen total Fuckup hinlegt und mit viel zu viel Energie um die Ecke kommt.
Eigentlich sollte sowas Pflichtteil in einer IT Berufsausbildung sein, weil das absolut kein Spass ist. Mit IP-Rechnen kann ich meine Augen nicht zerstören, aber mit Unwissen über Laser schon.
Zum Thema selbst.
Mit 10Gtek würde ich sehr aufpassen. Deren Module hatte ich bisher einmal in die Wiege gelegt bekommen von jemanden anderes. Hab die mit großer Freude gegen vernünftige Module von FS.COM getauscht bzw. Entsorgt.
Grund?
Die Teile werden richtig Heiß im Laufenden Betrieb (+60° Celsius) was dazu führt das die Wellenlänge sich massiv verschiebt, was darin resultiert das man Tonneweise TX/RX Fehler im Betrieb hat. Das führt zu Tonnenweise Retransmission was deine Netzwerk Performance nicht unerheblich beeinträchtigt. Zumal mir es ohnehin ein Rätsel ist warum die so heiß werden. Das kann nur bedeuten das die richtig schlechte Laser verwenden oder die Spannungsregelung absoluter Mist ist.
Ich hoffe auch das du deine Buchsen, SFP-Module und Keramikstecker vorher gereinigt hast ansonsten wird das sich auch irgendwann rächen.
Bei Beschriftungen auf Patchpanel würde ich immer noch selbst prüfen ob das so ist. In deinem Fall prüfen ob die Faser wirklich OM4 ist. Grundsätzlich kannst du Physikalisch OM3 mit OM4 mischen, aber schön ist es nicht.
Finde diese These genauso wie „Never change a running system“ absolut daneben.
Ich schlafe deutlich besser wenn meine Maschine einfach durch den ACPI durchtreten kann ohne das auch nur das geringste dabei passiert. Naja ausser eben ein Neustart.
Zu dem ich es luxuriös empfinde wenn ich meine Maschine über den Jordan treten kann. Sie mit Salt einfach neu provisioniere, weil ich Nutzdaten grundsätzlich nicht da lagere wo mein OS rum dümpelt. Somit kann ich changen und rebooten bis der Arzt kommt.
Alles Dinge die ich mit einen Raspberry Pi komplett vergessen kann in der Standard Ausführung.
Neue Errungenschaften wie eine NVMe Anbindung und NVMe Bootsupport beim Pi. Da sehe ich zum ersten mal Sinnvolle Anwendungen, weil mein Block device nicht mehr so schnell sterben wird. Zu mal du einen Raspberry Pi bisher direkt in die Tonne treten konntest sobald dein Kartenleser tot war.
Display MoreKurze Frage zum Thema POE.
Bevor ich hier mit dem 3ten und 4ten POE Injector arbeite .... dachte ich daran ein zweites POE Switch zu besorgen, quasi nur zur Stromversorgung.
Damit versorgt werden müssten eigentlich alle Geräte die ich gekauft habe
Also:
- UniFi Cloud Key Gen2 Plus (6Watt + Protect, keine Ahnung, maximal 15W denke ich?)
- UniFi AP Pro (9W)
- UniFi Switch Flex, USW-Flex (5-Port 2 Gigabit Switch/PoE Support) (??W - denke nicht mehr als 3-4W + eben die Verbraucher die dran hängen)
und am UniFi Switch Flex hängen noch mal:
- UniFi G3 Flex (4W)
- optional 2te G3 Flex (4W)
Wären in der Summe 36W - also laut meinem Verständnis mehr als ausreichend.
Tendiere zu dem Device hier:
https://www.amazon.de/TP-Link-…eh%C3%A4use/dp/B0763TGBTS
Aber mache mir Sorgen mit dem Switch Flex, laut Hersteller:
- (1) GbE, 802.3bt PoE++ RJ45 input
- (4) GbE, 802.3at PoE+ RJ45 ports
Kann ich das Ding trotzdem mit PoE+ statt POE++ betreiben? Hab ja keine großen Verbraucher dran, maximal 2 4W Kameras und sonst non-POE Devices.
Edit:
Hier noch mal die Angabe vom Hersteller - klingt für mich so als könnte ich es auch mit PoE+ betreiben .... nur dann eben weniger Verbraucher anklemmen, oder irre ich?
Edit 2: Hat sich schon fast erledigt:
Total PoE --> Power Budget
Powered by 802.3af --> 8W
Powered by 802.3at --> 20W
Powered by 802.3bt --> 46W
Powered by PoE Adapter --> 46W
(Enabled in Controller)
Dann habe ich bei nem Input vie PoE+ 20W zur Verfügung - also genug für theoretisch 5 G3 Flex - wobei nur 4 in die Ports passen![]()
Junger padawan hab dich ich noch versucht warnen zu. US-8-150W lautet deine Antwort wenn dir acht Ports genügen, oder low budget US-8-60W.
Die Klassifizierung die du hast bezieht sich auf Leistung pro Port. 802.3at ist das gesunde minimum das ein POE Switch pro Port liefern können sollte. 802.3bt versteht sich als Luxus noch im Moment. 802.3af ist nur interessant wenn du 802.3at reinlötest und 802.3af weg nimmst.
Deine Berechnung ist leider unpräzise. Wenn alle auf deiner Seite stehen hast du 25.5W zur Verfügung. Die 4.5W sind als Verlustleistung bei 802.3at zu verstehen von den gelieferten 30W. Dann gehen zusätzlich noch 5W weg für den Eigenbedarf des Switch.
Nachdem Bedarf und Verlustleistung als sehr Variabel anzusehen ist, behauptet ich das bei vier Kameras sense ist. Solltest du rein auf Kameras setzen. Mit einen Access Point und ist diese Kalkulation hingehen nicht mehr möglich. Da zieht dir ein AP Pro schon maximal 9W (U6-LR 16.5W fyi) laut Papier, real natürlich weniger, weil er nicht dauerhaft schreien wird. Dann kommt die Kamera mit 4W drauf und dann wars das mit Reserven. Bedeutet für dich 802.3bt oder die Vernünftigere Variante den Access Point direkt dediziert anzubinden und nur Kameras über den Flex.
Zu mal ich in einer UniFi Landschaft davon abraten würde Fremdhersteller rein zu mischen. Auch eine schmerzhafte Lehre meinerseits. Genauso bei POE Budgets zu sparen. Spätestens wenn du den Switch neustarten tust und 20 Telefone + 5 APs dran hast weist du was ich meine. Abwärme darf auch nicht unterschätzt werden bei sowas.
lol das Zitat direkt m_ueberall fronted Ich mag Forumsoftware
Echt spannend wie unterschiedlich die Erfahrungen so sind. Ich nutze Seafile seit fünf Jahren, hab die gleiche Instanz von Server zu Server, von Server zu Docker, von Disk zu Disk geschoben. Bis auf ein einzelnes Problem mit einem Database Migration Script immer fehlerfrei.
IMHO gibt es Sicherheitstechnisch auch keinen Unterschied zwischen NextCloud und Seafile (wenns darum geht eben diese mit einem Proxy "abzusichern").
Wie gesagt oberflächlich benutzbar, unten rum für mich ein Albtraum an Stack.
Hm, ich habe einen Raspberry Pi 4 mit Unifi Controller am Laufen, und das seitdem Raspberry Pi 4 auf dem Markt ist. Funktioniert hervorragend. Die SD-Karte von SanDisk ist sogar noch von der zweiten Generation. Läuft auch. ¯\_(ツ)_/¯
Mach mal nen Reboot