Beiträge von gem

    Wie schon mehrfach angemerkt hängt es sehr stark davon ab, was du über die Leitung machen möchtest und ob du 100% "remote" arbeiten musst.


    Ich verwende FullHD RDP Sessions in verschieden Konfigurationen (via Wireguard, OpenVPN, SSH- oder stunnel) und über unterschiedliche Verbindungen seit vielen Jahren.

    Sofern es um eher klassische Office- oder Entwicklungs-Tätigkeiten geht funktioniert das meiner Erfahrung nach ganz gut, habe aber auch noch keinen vollständigen Tag darüber gearbeitet.

    3D Design oder Rendering war eher eine Katastrophe, sowohl wegen der Latenz als auch bei der Qualität.


    RDP kann man durchaus datensparsam konfigurieren, so dass ich auch z.B. aus dem Urlaub via 4G mehrere Stunden mit wenigen hundert MB arbeiten konnte - wobei da die Latenz schon zum Problem werden kann.

    Linux Desktops via RDP funktionieren auch, nur bin ich bin aus Bequemlichkeit irgendwie doch wieder bei Windows gelandet.


    Ich möchte hier keine Empfehlung aussprechen, aber ich musste/durfte/konnte mich als familiärer Support-Helpdesk mehrfach mit Teamviewer beschäftigen und würde das als Option in Erwägung ziehen.

    Dann fehlt nur noch netcup Warehouse Datacenter Deals, mit ausgedienten Systemen als Schnäppchen! :saint:

    Dafür gibt es doch schon den "Biete" Bereich! ^^

    Gedanken würde mich mir dann machen, wenn im SCP oder während einer Serverinstallation plötzlich Werberunterbrechungen eingeblendet werden.

    Powerline kann hinsichtlich Reichweite durchaus hilfreich sein. Der Durchsatz hängt von der Qualität der Leitungen ab und ist üblicherweise auf einen einzelnen Stromkreis begrenzt, d.h. funktioniert (zuminest nicht zuverlässig) über Schaltschrank-Grenzen hinweg.

    Hatte ich für den Kabelzugang bei <100Mbit auch ein paar Jahre im Einsatz.


    Die Koaxial-Lösung werde ich mir mal näher anschauen.

    Danke für den Hinweis, einen AC1750 mit OpenWRT hatte ich mehrere Jahre bei meinem Vater im Einsatz.

    Ich muss zugeben, dass ich mit OpenWRT nie richtig "warm" geworden bin und zumindest dort lief der Router nie sonderlich stabil.


    Routingtechnisch bin ich mit meinem Mikrotiks eigentlich ganz zufrieden, auch wenn IPv6 Prefix-Delegation etwas "herausfordernd" war.

    Ich suche tatsächlich nur nach einem oder mehreren APs die ich in mein bestehendes VLAN-Setup einbinden kann und die in einem 50+ Jahre alten Haus mit viel Stahlbeton Wänden und Wasserrohren mehr als ein paar Meter weit senden... falls das überhaupt geht. :)

    Ich stehe bautechnisch vor einem ähnlichen Problem.

    Bisher hatte ich eine FRITZ!Box 6490 Cable mit AVM FRITZ!Repeater 3000 im Mesh.


    Seit einigen Tagen habe ich zusätzlich eine FRITZ!Box 7590 über FTTH.

    Gefühlt ist das WLAN an der 7590 deutlich schlechter, mit dem Repeater etwas besser, aber nicht viel.


    Mein (Kabel-)"Backbone" mit 6 VLANs läuft primär über ein paar Switche und Mikrotik Router.

    Da die FritzBoxen ja bekanntermaßen keine VLANs können, suche ich einem leistungsstarken AP der 4 SSID und 4 VLANs unterstützt.

    MIr geht es mehr um Reichweite als um Bandbreite.

    Hat jemand Erfahrung mit den Mikrotik APs? Ich habe gelesen, die wären nicht so gut...

    Danke für den Hinweis. Aktuell ist das eher eine Machbarkeitsstudie, aber ich behalte das im Hinterkopf.


    Dafür habe ich gerlernt, dass sich Ubuntu etwas kooperativer verhält als Debian. Zwar muss man trotzdem den doppelten "console=" Parameter im Grub einbinden um das Passwort einzugeben, aber zumindest schaltet Ubuntu die Anzeige selbstständig wieder ein.

    Ich verwende diesen Ansatz manchmal auch, finde jedoch, das kommt immer auf den Einzelfall an.

    Ich habe Server, den eher für Tests und Entwicklung verwendet werden, deren Container sind recht volatil.

    Da kann es schonmal vorkommen, dass ein Port versehentlich öffentlich publiziert wird, da finde ich eine Firewall als zusätzlichen Schutz ganz hilfreich.

    Andererseits, wenn ein Produktions-Server ohnehin nur 80/443 für einen Reverse-Proxy o.ä. offeriert, sollte eine statisch FW mit eben diesen Ports auch nicht schaden, oder?

    Ich bin mit beiden Installations-Methoden bisher gut gefahren, wobei ich mit docker und ufw auf Debian/Ubuntu (trotz ufw-docker) nie richtig warm geworden bin... ich versuche gerade alle meine container auf podman rootless zu portieren...

    Von dem ganzen Windows Domänen kram und so hab ich so gar keine Ahnung. Werde ich dann aber in meiner neuen Ausbildung alles lernen :)

    Ich glaube ich würde manchmal nachts besser schlafen, wenn ich das ganze einfach nie gelernt hätte ;)

    It also depends whether you have a VPS or RS (with dedicated cores).

    The overall performance of the VPS can vary a lot in my experience.

    Eine vollständige Lösung habe ich noch nicht, aber ich möchte dennoch einen Zwischenstand teilen, falls noch andere über das Phänomen stolpern.


    Die Ursache ist wohl darin begründet, dass Linux auf ARM standardmäßig ttyAMA0 für die serielle Konsole verwendet und beim booten zuerst zu tty0 und erst später zu ttyAMA0 schatet.

    In den meisten Fällen ist das wohl kein Problem, da die Verbindung nach GRUB kurz unterbricht und wiederhergestellt wird, wenn ttyAMA0 registriert wird.


    In meinem konkreten Fall wollte ich jedoch die LVM Vollverschlüsselung mit LUKS testen und die Passworteingabe fällt da genau in den Bereich mit "Guet disabled display."


    Ein workaround bei Debian 12 ist, den Kernel mit zwei console Parametern zu starten


    console=ttyAMA0 console=tty0


    zu starten.

    Das bringt zwar leider immer noch kein Bild, aber zumindest erlaubt es die (blinde) Kennworteingabe und der VPS kann starten...


    Falls jemand eine bessere Lösung hat, bin ich für jeden Tipp dankbar :)


    Nähere Informationen finden sich übrigens unter: https://bugzilla.redhat.com/show_bug.cgi?id=1661288

    Hi,


    ich sammle gerade erste Erfahrungen mit den ARM-Servern und habe aktuell das Problem, dass die VNC Console im SCP nach der Installation von Debian zwar noch Grub anzeigt, dann aber mit "Guest disabled display." nicht weiter funktionsfähig ist.

    Im Netz findet man Hinweise, dass das ein ARM-spezifisches Problem ist, was naheliegend ist, da ich das Problem mit meinen x86 Servern niemals hatte.


    Gibt es vielleicht einen Kernel-Parameter, mit dem man die Console wieder anzeigen kann?

    Wieso nicht einfach ein Wireguard Netz aufspannen? Ist es nicht doch eher kosmetischen Natur, wo die Server stehen? Das frage ich als jemand, der noch nie einen Server in Wien hatte und das sich heuer überlegt hat.

    Klar Wireguard ist ne Option und der Tunnel läuft auch schon, aber das VLAN ist schon ne feine Sache, gerade wenn du viel "internen" Traffic hast. Außerdem habe ich noch keine Idee, wie ich ohne statische Config auf jedem Server ein vernünftiges routing hinbekommen soll...

    Nachdem der bestehende Code ja offenbar nicht (mehr) geht, hat schon jemand nähere Informationen zu den Specs für den VPS 500 ARM?

    Lohnt es sich, auf einen eventuellen neuen Code zu warten?


    Nachdem es offenbar keine 1000er ARM gibt, hab ich jetzt mal den VPS 2000 ARM G11 VIE mitgenommen.