Das längste Thema

  • mit Spaßvogel hat sowas nicht unbedingt etwas zu tun, es gibt ja auch die Mglkt. von personifizierten Inhalten;

    eben weil manches erhöhte Risiken birgt, gibt es das auch nur f. einen eingeschränkten Personenkreis mit gesonderter Anforderung;

    wobei und bei diversen Seiten wird auch zusätzlich SSL-interception gemacht;

    Das ist mir bewusst, das sollte auch eigentlich nur ein Spaß sein ^^ mir ist sehr wohl bewusst warum man sowas macht, aber es ist dann halt immer noch eine zusätzliche Hürde, wenn man "rauskommen" will. :P

  • aber es ist dann halt immer noch eine zusätzliche Hürde, wenn man "rauskommen" will.

    eigentlich nicht, shellinabox ist was geniales :-)

    genau das habe ich auf meinem Router laufen, um

    mal von der Arbeit nach dem Rechten zu sehen ...

    Grüße / Greetings

    Walter H.


    RS 1000 SAS G8 xRAM; RS 500 SSD G8; VPS 200 G8 Akt.; Webhost. 1000 m. 75%

  • Eine Idee: .curlrc für den root/debian-Nutzer anlegen und darin das Protokoll definieren, klappt nicht?

    https://ec.haxx.se/cmdline-configfile.html

    Das funktioniert leider nicht, weil apt nicht curl aufruft sondern direkt libcurl-Funktionen verwendet (siehe https://stackoverflow.com/a/3712594/6145758). Eine "Fallback"-Möglichkeit auf ein Kommandozeilen-Programm wie curl/wget (besser noch: direkt konfigurierbar) wäre in der Tat eine sinnvolle Erweiterung von apt.

    Andererseits wäre obige Integration der Auswertung einer Konfigurationsdatei natürlich auch praktisch für libcurl, aber bagder (Daniel Stenberg) war gestern (noch???) nicht sonderlich begeistert von der Idee.

    Bleiben zwei Workarounds: Ein lokaler Fork von apt, abgestimmt auf curl ("haarig"), oder der Einsatz eines http1.1-Proxies (etwa via Docker-Container) nur für apt (das wäre einen Versuch wert).

  • Das funktioniert leider nicht, weil apt nicht curl aufruft sondern direkt libcurl-Funktionen verwendet (siehe https://stackoverflow.com/a/3712594/6145758).

    Jetzt bin ich verwirrt...

    Da mir jetzt auch nicht klar ist, ob libcurl nicht nicht mit der apt-binary (dynamisch) verlinkt sein müsste, oder ob einer der transport-Mechanismen der richtige Ansatzpunkt ist, überlege ich einen Workaround:

    man sources.list

    man apt-transport-http

    man apt-transport-https


    Du könntest lokal einen (http) Proxy laufen lassen und den über apt-sources.list einbinden oder mit ftp(s) als Transportprotokoll arbeiten.

    https://askubuntu.com/question…0/configure-proxy-for-apt

  • Du könntest lokal einen (http) Proxy laufen lassen und den über apt-sources.list einbinden oder mit ftp(s) als Transportprotokoll arbeiten.

    https://askubuntu.com/question…0/configure-proxy-for-apt

    Ja, genau https://askubuntu.com/a/920242/525098 schwebte mir vor. Mal sehen, ob ich diesen Monat noch dazu komme, das auszuprobieren. Bis dahin muss curl 7.60 (libcurl3)/7.61 (libcurl4 – beißt sich derzeit mit apache2-Paketen aus Dritt-Repositories, welche noch strikt nach libcurl3 verlangen) auf den Maschinen verbleiben.

  • Habe gerade festgestellt, dass ein Backport einer neueren Version von curl (aktuell: 7.64.0) auf Ubuntu 16.04[.5] LTS nicht ohne weiteres möglich ist, da libcurl4 hier automatisch HTTP/2 versucht und Repository-Server, welche letzteres "gemeinerweise" auch verstehen und sprechen, apt aus dem Tritt bringen ("The HTTP server sent an invalid reply header"). Eine einfache und insbesondere saubere Möglichkeit (ohne Modifikation von curl/apt), das Problem zu umgehen, sehe ich nicht. (Das ist genau so lustig wie mit GnuPG, welches man unter Ubuntu 16.04 auch nicht ohne Weiteres "auffrischen" kann.) :pinch:

    Ich meine, mich dunkel zu erinnern, dass man apt irgendwie mit wget zusammenarbeiten lassen konnte, aber einen Online-/man-page-Hinweis habe ich nicht gefunden. Durch den Code mag ich mich jetzt nicht durchlesen...

    Gab ja letztens erst eine Docker vs kein Docker Diskussion. Das ist ein gutes Beispiel, was für den Einsatz von Docker spricht ;)

  • Gab ja letztens erst eine Docker vs kein Docker Diskussion. Das ist ein gutes Beispiel, was für den Einsatz von Docker spricht ;)

    Wobei man bei der Installation bitte darauf achten möge, aufs oder overlayfs-Support zu installieren, um nicht mit einem mehrere Gigabyte großen Devicemapper-File zu enden.


    https://stackoverflow.com/ques…-environment-devicemapper

    https://docs.docker.com/storage/storagedriver/aufs-driver/

  • Wobei man bei der Installation bitte darauf achten möge, aufs oder overlayfs-Support zu installieren, um nicht mit einem mehrere Gigabyte großen Devicemapper-File zu enden.


    https://stackoverflow.com/ques…-environment-devicemapper

    https://docs.docker.com/storage/storagedriver/aufs-driver/

    Noch so eine Baustelle (GlusterFS/ZFS/AuFS/OverlayFS) – allerdings nicht im Kontext von Docker… https://bugs.launchpad.net/ubu…ce/zfs-linux/+bug/1718761 ||

  • eigentlich nicht, shellinabox ist was geniales :-)

    genau das habe ich auf meinem Router laufen, um

    mal von der Arbeit nach dem Rechten zu sehen ...

    Hehe, das ist richtig. Ich habe aufgrund der Tatsache, dass Raustunneln bei uns auf Arbeit verboten ist, auch shellinabox auf einen meiner Server gepackt. Die restlichen Server sind ja dann im VLAN, da nehm ich den Server mit shellinabox als Jumphost. Eine feine Sache! ^^

  • da Ubuntu auf Debian basiert, macht es doch Sinn stattdessen das Original - nämlich Debian - zu verwenden ...

    Sobald externe Repositories ins Spiel kommen, die man wegen eines neueren, nicht in der Stable-Distribution enthaltenen Pakets benötigt, ist es im Grunde egal, ob man das neuere Ubuntu oder das etwas ältere Debian verwendet. Die Docker-Pakete in Debian sind übrigens noch ein bisschen älter. Alles was mit Docker, Kubernetes und Co einhergeht, hat schon irgendwo seine Berechtigung. Ob der Wartungsaufwand unterm Strich andererseits dafürsteht... naja, das muss jeder für sich entscheiden.

  • Sobald externe Repositories ins Spiel kommen, die man wegen eines neueren, nicht in der Stable-Distribution enthaltenen Pakets benötigt, ist es im Grunde egal, ob man das neuere Ubuntu oder das etwas ältere Debian verwendet. Die Docker-Pakete in Debian sind übrigens noch ein bisschen älter. Alles was mit Docker, Kubernetes und Co einhergeht, hat schon irgendwo seine Berechtigung. Ob der Wartungsaufwand unterm Strich andererseits dafürsteht... naja, das muss jeder für sich entscheiden.

    Bei Ubuntu ist aber nur der main und restricted Supported (U.a. vom Security Team). Der Rest ist die Community. Das war für uns der Grund weshalb wir nicht auf Ubuntu setzten.

  • Mein 1st-Generation NUC-Serverchen aus dem Jahr 2014 wurde heute notoperiert: Nach knapp 40.000 Betriebsstunden als KVM-Host wollte der kleine Lüfter nicht mehr so wirklich. Dieses Problem kündigte sich bereits seit Herbst 2018 an, passenden Ersatz habe ich seit einigen Monaten hier liegen. Der (wenig) gebrauchte Ersatzlüfter von eBay Kleinanzeigen läuft zum Glück einwandfrei. Jetzt ist das Ding wieder schön kühl und, noch viel wichtiger, leise!


    Dann auf die nächsten 5 Jahre? =O Wohl eher nicht, irgendwann wird neue Hardware fällig… ^^


    Achja, ratet mal was ich Depp beim Patienten vergessen habe: Ein Bios-Update! <X

  • Ist hier zufällig noch jemand Telekom Kunde (VDSL), hat einen Speedport Smart und vermehrt Verbindungsprobleme?


    Mehrmals pro Woche wird die Internetverbindung seitens des Routers zur Telekom spontan getrennt. Loggt man sich dann ins Webinterface ein, muss man diese dort manuell wiederherstellen. Teilweise wird ein „Verkabelungsfehler“ angezeigt und auch das manuelle Wiederherstellen der Verbinung ist für eine beliebige Anzahl an Minuten nicht möglich. Wohlgemerkt geschieht dies alles, ohne im Webinterface oder am Router selbst auch nur irgendetwas zu ändern.

  • hat wer zufällig nen Tipp für nen minimalstisches wordpress theme für nen privaten blog, ... wollte meinen alten blog mal auf ne aktuellere domain umziehen und war auf der suche nach designs, ... hab aer nix wirklich spannendes gefunden.

  • Mein 1st-Generation NUC-Serverchen aus dem Jahr 2014 wurde heute notoperiert

    Als ich die Entscheidung zwischen einem NUC und einer ZOTAC ZBox hatte, habe ich mich für letztere entschieden. Die ist lüfterlos und fiepst auch kaum. Lediglich über das dort verbaute WLAN-Modul -Intel 3160 AC- habe ich mich geärgert, weil das keinen AP-Mode zulässt, sondern nur als Client arbeiten möchte. Die Firmware ist entsprechend beschnitten. Natürlich stand das in keiner Spezifikation oder auf der Schachtel oder so...

    Die erhoffte bessere Energiebilanz eines Wohnzimmerservers war damit schlagartig um die 15 Watt Spitze für einen WLAN-Router erhöht.

  • eripek Mit diesen lüfterlosen Geräten habe ich auch schon mehrmals geliebäugelt. Ich habe allerdings immer noch Angst, dass die im Sommer bei 30-32° Raumtemperatur einen Hitzetod erleiden könnten. Erschwerend kommt hinzu, dass einige NUCs und ähnliche Geräte nur mehr 8 GB Ram vertragen. Ich brauche aber zwingend wieder 16 GB.


    Solange die Leistung ausreicht und das Ding funktioniert, darf es jetzt mal weiterlaufen. Ich laste das Gerät im Durchschnitt nur zu 35% aus, da lohnt sich ein Upgrade kaum. Der Stromverbrauch ist sowieso relativ niedrig ohne WiFi+BT Modul und mit deaktivierter GPU.

  • Ist hier zufällig noch jemand Telekom Kunde (VDSL), hat einen Speedport Smart und vermehrt Verbindungsprobleme?


    Mehrmals pro Woche wird die Internetverbindung seitens des Routers zur Telekom spontan getrennt. Loggt man sich dann ins Webinterface ein, muss man diese dort manuell wiederherstellen. Teilweise wird ein „Verkabelungsfehler“ angezeigt und auch das manuelle Wiederherstellen der Verbinung ist für eine beliebige Anzahl an Minuten nicht möglich. Wohlgemerkt geschieht dies alles, ohne im Webinterface oder am Router selbst auch nur irgendetwas zu ändern.

    Häufig ist die Verkabelung tatsächlich schuld. Besonders ältere TAE Dosen korrodieren inzwischen recht stark. Es lohnt sich auf jeden Fall den Telefostecker ein paar Mal aus der Dose zu ziehen und wieder rein zu stecken.

    Ja, das klingt wie die Aussage vom Telefonsupport, kann aber tatsächlich helfen...

    Current Servers

    morpheus: Root-Server M SSD v6a2
    apoc: VPS 50 G7
    link: Storage-Server S 1000 G7