Posts by Steini

    Grundsätzlich ist dein Vorhaben mit allen VPN Lösungen machbar, genau dafür ist VPN ja da: Ein virtuelles privates Netzwerk aufbauen.


    Was für dich das Beste ist, hängt von mehreren Dingen ab. Zum Beispiel: Womit hast du schon Erfahrung? Wie wichtig ist dir, dass der Client anonym bleibt / zerologs? Wie viele Clients bekommt das VPN? Bekommst du (z.B. für die Spiele) spontane neue Nutzer/Clients, die eingebaut werden müssen?


    StrongSwan kenne ich nicht, OpenVPN und Wireguard habe ich aber selbst im Einsatz (bzw. gehabt) und kann dir ein bisschen was dazu sagen. OpenVPN ist deutlich älter, etabliert, stabil und unglaublich mächtig. Wireguard dagegen ist der aktuell gehypte Aufsteiger, noch in der Testphase und zeichnet sich durch Geschwindigkeit und eine kleine Codebasis aus. Außerdem basiert es auf einer Peer-to-Peer-Architektur im Gegensatz zu allen anderen VPN Verfahren, die eine klassische Client-Server Architektur haben.

    Wireguard hat einige bestechende Vorteile: Es ist aktuell das schnellste VPN, ohne Abstriche bei der Sicherheit zu machen und (finde ich besonders Mobil toll) es ist Roamingfähig. Das Bedeutet, keinerlei Einbußen, wenn sich das Handy plötzlich zwischen WLAN, LTE oder GSM hin- und herwechselt. Ganz abgesehen davon, dass der Handshake unglaublich schnell ist. Bis OpenVPN den Server gesucht hat, ist Wireguard schon verbunden. Zudem ist die Konfiguration super simpel und daher weniger Fehleranfällig. Es funktioniert aber vom Prinzip her deutlich anders als bisherige VPN-Lösungen und verwirrt "alte Hasen" daher anfangs, wenn man sich nicht mit den Grundlagen beschäftigt (und vorher klar macht, dass es kein klassisches VPN ist und daher mit sowas wie OpenVPN nicht direkt vergleichbar ist).

    OpenVPN ist eine Server/Client Lösung, währen Wireguard eine Peer-to-Peer-Architektur hat. Natürlich kann man einen Peer als Server benutzen/definieren, aber das Aufsetzen verwirrt manchmal etwas, wenn man sich das nicht klar macht. Wireguard läuft über Public/Private Keys und ist quasi bidirektional, du bist gleichzeitig Server und Client (bzw. könntest es sein, je nach Einstellungen). Zudem unterstützt es IPv6 (ist für dich ja aber erst mal nicht wichtig).


    Es gibt aber auch gravierende Nachteile von Wireguard, die manche Einsatzzwecke verhindern. Zum Beispiel werden die IPs nicht dynamisch vergeben (weil nicht klassisch Server/Client, es ist also kein Server da, der die IPs vergeben könnte). Jeder Client muss also quasi eine eigene feste IP bekommen wodurch die sonst oft angestrebte Anonymität durch ein VPN nicht möglich ist. Auch sind dadurch natürlich die IP-Adressen und Bereiche begrenzt, man muss also Buch führen, welcher Peer welche IP hat und sollte sie nur einmal vergeben ;)

    Weiter geht Wireguard nur per UDP. Ob groß der Nachteil ist, muss jeder selbst entscheiden. Zumindest, wenn UDP-Ports geblockt werden, wie zum Beispiel in einigen Hotel-WLANs ist es unbrauchbar. Ich hatte früher einen OpenVPN-Server auf TCP Port 443 lauschen, der geht da immer durch (WLAN wäre ja unbrauchbar, wenn man Port 80/443 pauschel sperrt).


    Wenn du mit den Nachteilen leben kannst, würde ich zu Wireguard raten. Es wird als Netzwerkinterface eingerichtet und du sagst erst mal nur, zu welchen IP-Ranges der Traffic über dieses Interface gehen soll. Alles weitere regelt dann deine Firewall. Du kannst also sehr schön einstellen, welcher Traffic wohin geroutet wird, es ist super schnell (sowohl Durchsatz, als auch Verbindungsaufbau), es ist Roaming fähig, es gibt Software/Treiber für Linux, Windows, MacOS, iOS,..

    Ich hab mal ne Frage zum Pi, gibt ja einige Experten hier:

    Wie sehr in Echtzeit kann das Ding denn eigentlich Sensordaten erfassen? (Taster, Schalter, Drehpotis, Temperaturen usw.) Passiert das alles ohne Verzögerung, wenn ich etwa 10-20 Sensoren erfassen und gleichzeitig etwa 5-10 Schrittmotoren aktiv betreiben möchte. Dazu eben noch ne Anwendung, die das alles verwaltet und obendrauf noch das UI sowie ne umfassende Webschnittstelle.

    Packt der Pi das, nur mal so aus Interesse?


    (GPIO Pins würden über I2C Multiplexer und I2C Expander gespeist.)

    Von Haus aus macht der PI kein Echtzeit, da brauchst du Patches für. Brauchst du aber vermutlich garnicht. Echtzeit bedeutet an sich ja nur, dass eine bestimmte Operation nach einer festgelegten Zeit garantiert beendet ist.

    Das bedeutet für dich, dass du erst mal festlegen musst, was deine Echtzeitanforderungen sind. WIe oft pro Sekunde müssen die Sensoren für deinen Anwendungsfall ausgelesen werden? Am Ende kommt es natürlich auf die Programmierung an. Man ist auch vor 50 Jahren mit einem Bruchteil der Rechenleistung auf dem Mond gelandet. Aber da wurde natürlich kein Java oder Wordpress oder sonstige Performancekiller eingesetzt ...


    Grundsätzlich sehe ich da kein Problem. Der i2c bus macht selbst in der langsamsten Version 100kBit/s[1], was für 20 Sensoren ausreichen sollte, je nachdem wieviel Informationen du davon bekommst.

    Insgesamt klingt das Projekt für mich eher wie ein Arduino-Projekt. Der Mikrokontroller kann auch Echtzeit.


    [1] Auch 400kbit/s sollten kein Problem sein https://www.raspberrypi.org/do…M2835-ARM-Peripherals.pdf

    Außer paar älteren CMS läuft auf dem Server nichts.

    Wenn du den Server nur für ein Webhosting benutzt, willst du ein Webhosting Paket buchen, da ist das alles für dich gemacht worden.


    Die logs zeigen deinen Apache und default host, nicht deinen vHost. Der hat wohl eigene logs.

    Die Fehlermeldung zeigt, dass das Rootverzeichnis deines vhosts für den Webservernutzer nicht lesbar ist.

    Grundsätzlich geht dein Setup, ich kann zumindest dein Froxlor aufrufen. Das Problem liegt also in der vhost config, in der du die Konfigurationsänderung, die H6G in Post 7 gepostet hat, durchführen musst.


    Die Änderung kannst du vermutlich in Froxlor machen (kenne Froxlor nicht, kann nichts dazu sagen) oder direkt in den Dateien unter /etc/apache2/sites-enabled/ vermutlich werden direkte Änderungen später aber wieder von Froxlor überschrieben

    Laut httpd.conf Begleittext ist das fehlende anführende / korrekt - Pfade mit fehlendem anführenden / werden immer durch den ServerRoot ergänzt, welcher /usr ist.

    Mag sein, dass es funktioniert. Ich finde es aber verwirrend und würde es nicht nutzen. Absolute Pfade sind in dem Fall deutlich weniger Fehleranfällig.


    Kann sein, dass dein LE Prozess keine Schreibrechte hat auf: /private/etc/apache2/httpd-le-ssl.conf ?

    Hat jemand hier ShareLatex im Einsatz und kann mir sagen, wieviel Ressourcen man in etwa einplanen sollte?

    Würde nur von mir genutzt, also einem User gleichzeitig.

    Ich habe ein Sharelatex im Einsatz, das von unserer Arbeitsgruppe verwendet wird. Last also auch überschaubar, nur zu manchen Zeiten sind vielleicht mal 2-3 Leute gleichzeitig drauf. Sharelatex an sich ist überschaubar, man muss aber bedenken, dass das auch Redis und Mongo mitbringt. Es ist aber schon auf relativ schlechter Hardware installierbar. Ob es nutzbar ist, probierst du am besten aus. Es wird bei uns halt relativ oft kompiliert, was für jeden Nutzer einzeln gemacht werden muss. Das braucht dann CPU Leistung. Wenn also mehrere Leute gleichzeitig dran arbeiten und das Dokument mehr hat als einfach zwei Seiten Text, dann kann das schon Zäh werden. Ich bin von einem RS2000 G7 auf einen G8 umgestiegen und habe schon deutliche Performancegewinne bemerkt (läuft aber auch noch eine Menge anderer Kram drauf). Das betrifft aber hauptsächlich das erste Öffnen bzw kompilieren. Während des Schreibens braucht es dann kaum Leistung.

    Es als Einzelnutzer zu benutzen macht aber imho kaum Sinn ;)


    Dann noch eine Antwort auf eine Frage, die du garnicht gestellt hast: ;-)

    "Connection refused" bedeutet, dass der Webserver nicht antwortet. Die Verbindung zum Webserver wird also vorher blockiert. Das Problem kann also sein:

    - Falscher/nicht propagierter DNS Eintrag

    - Webserver läuft nicht oder antwortet nicht auf dem Interface

    - Firewall blockiert Verbindung (kann auch ein Router/etc im Weg sein)

    - Wie würdet ihr beim PHP-Upgrade vorgehen? Mein pragmatischer Ansatz: PHP-Version hochsetzen, Website durchtesten - wenn etwas nicht klappt, notfalls erstmal downgraden. Funktioniert das? Würdet ihr es so oder anders angehen?

    Prinzipiell funktioniert das. Es kommt immer drauf an, wie wichtig dir die Erreichbarkeit deiner Seite ist und was da drauf läuft. Wenn es ein fertiges Paket ist, dann das upgraden und nachschauen ob die Kompatibilität mit 7.2/7.3 gegeben ist.

    Die vorsichtige Version wäre, das ganze mal woanders zu testen. Z.b. eine Subdomain erstellen, den Webinhalt kopieren und auf der Subdomain alles testen. Wenn es nicht so wichtig ist, einfach ausprobieren. Alle aktuellen Webprojekte laufen problemlos (bzw. besser) mit 7.2+

    Dein VPN client bekommt eine IP aus dem 10.1.1.0 Subnetz?

    Deine Serveranwendung lauscht auf dem Subnetz? Überprüfen mit netstat -tulpen

    Die Freigabe in der Firewall ist in der richtigen Reihenfolge und wird nicht von dem alles sperren überschrieben?


    Mit ufw kann ich dir leider nicht weiterhelfen. Vielleicht erst mal abschalten und ohne testen? Die ist ja eigentlich eh nur dafür da, dass eventuelle rootkits von außen nicht erreichbar sind. Oder für was soll das verwendet werden? Wenn einzelne Dienste nicht auf dem öffentlichen Interface erreichbar sein sollen, dann lässt man die nur auf dem gewünschten Interface lauschen.

    Letztendlich scheitere ich immer an dem Punkt, dass ich zwar eine Verbindung aufbauen kann und auch eine IP vom VPN erhalte, aber eine Kommunikation mit anderen Diensten auf dem Server (z. B. eine SSH Verbindung welche nach extern mit einer Firewall blockiert wird und ergo intern über VPN ja funktionieren sollte) nicht möglich ist.

    Klingt für mich nach einem Firewallproblem. Die IP, die du zugewiesen bekommst ist nicht automatisch "intern". Die muss in der Firewall auch freigeschaltet werden. Hast du das gemacht?

    Wenn du sowieso schon am rumprobieren bist, kannst du dir auch Wireguard anschauen. Meiner Meinung nach gehört dem die Zukunft.

    Hast du dir mal https://www.sipgate.de/ bzw. https://www.simquadrat.de/ angeschaut? Ich habe letzteres im zweiten SIM-Slot im Handy.

    Von Simquadrat habe ich bisher noch nicht so viel gutes gehört (ist ja auch O2 Netz?). Schön, von dir zu hören, dass du zufrieden bist ;)

    Mit Sipgate bin ich tatsächlich am überlegen. Die scheinen ja auch gut international vernetzt zu sein, sodass nicht alles erst mal über Deutschland geroutet wird.

    Ich kann nur Placetel empfehlen, ist günstig und funktioniert top.

    https://www.placetel.de/telefonanlage/preise

    Nutze es selbst auch und bin sehr zufrieden

    Placetel kannte ich noch nicht. Sieht interessant aus (auch für Privatpersonen, obwohl das ja wohl nicht so die Zielgruppe ist)! Danke!

    Ich glaube mittlerweile, dass ich bei Netcup zuvor noch ein SSL Zertifikat kaufen muss, kann das sein

    nein



    Das wiki ist zwar etwas veraltet und wird bei dir anders aussehen, aber Grundsätzlich steht da alles:

    https://www.netcup-wiki.de/wiki/Android_Mail


    Die Daten zum Eintragen findest du im Controlpanel.


    Was du machen willst (Mails auf dem Handy bekommen) ist problemlos ohne zusätzliche Sachen möglich. Im Zweifelsfall fragst du eine Bekannte, die sich auskennt, vor Ort lässt sich das meistens einfacher lösen.

    Hallo zusammen,


    ich darf demnächst für wohl 1,5 Jahre in die USA. Da stellen sich natürlich viele Fragen und mittlerweile bin ich bei Netzwerk/Telefon/etc,.. angelangt.

    Meine Mutter hat einen Telekomanschluss mit einigen ungenutzten Rufnummern die man per VOIP ansprechen kann. Da ich sowieso einen VPN dahin habe, war ich am überlegen, ob ich für die Telefonate nach Hause nicht einfach die Nummer nutze. Hat aber natürlich einige unangenehme nebeneffekte und hat aus Korea auch nicht so reibungslos funktioniert (der Ping war halt schon recht groß), wieso ich am Überlegen war einen SIP-Anbieter zu nehmen. Vielleicht auch einen, wo ich eine deutsche und USA Rufnummer haben kann. Aber wirklich überzeugend war das auch nicht.


    Dann bleibt noch die Möglichkeit einen Asterisk auf einem meiner Server zu betreiben. Habe ich bisher noch keine Erfahrung mit und es stellt sich auch hier die Ping-Frage und ob das überhaupt sinnvoll ist :?:

    Wenn ich das richtig mitbekommen habe, gibt es hier ja einige die sowas benutzen. Wie sind denn eure Erfahrungen? Irgendwelche Tips?

    Der Weg des geringsten Wiederstandes wäre natürlich einfach einen Tarif mit Flatrate nach Deutschland zu nehmen, aber wo bliebe da der Spaß?


    * natürlich kann man Skype/WhatsApp, etc verwenden aber ich will a) erreichbar sein unter einer "normalen" Nummer und b) hat Oma kein neumodisches gelumpe...

    Ich habe einige Ordner, die per Filter befüllt werden (Absender aus dem Adressbuch, Mails an meine Wegwerfdomains,...) und arbeite sonst mit OBI und "intelligenten" bzw. "smart" mailboxes. Da wird dann sowas angezeigt wie: "Aus der letzten Woche ungelesen". Nachteil davon ist, dass das der Client macht und das natürlich nicht so toll synchronisiert wird ;)

    Kann mir jemand eine simple Alternative zu MediaWiki empfehlen? MediaWiki ist mir zu umfangreich, die Notizen-App der Nextcloud reicht leider nicht aus.

    Wie du gesehen hast gibt es da viele Alternativen. Die Frage ist aber natürlich was du damit machen willst.

    Ich setze Privat (und zufrieden) für mich zum Dokumentieren "BookStack"[1] ein. Ist aber eher eine kleine/leichte Alternative zu Confluence.


    https://www.bookstackapp.com/

    Besser wäre es vermutlich, ein Backup zu machen und das unter Debian10 neu einzuspielen.

    Ich will nur nochmal auf diesen wirklich gut gemeinten Rat hinweisen. Ich glaube, dass es am Ende deutlich weniger Arbeit (und Ärger) wäre, die Anwendungen auf einem neuen, sauberen System neu einzuspielen.

    Bei dem gefrickel bleiben jetzt so viele Leichen auf dem Weg, dass es fast zwangsläufig irgendwann zu Problemen führen wird. Insbesondere, wenn dann noch Software gewechselt wird (Mysql -> MariaDB ist ja erst der Anfang, am Ende kommt dann vermutlich noch Mailserver/Spamerkennung, Webserver, etc..)

    Hmm, ich hab aktuell das Problem, wenn ich apt-get update oder apitutde update machen möchte, kommen folgende Fehler:

    Code
    1. W: Failed to fetch http://debian.froxlor.org/dists/wheezy/main/source/Sources: 404 Not Found [IP: 82.149.225.211 80]
    2. W: Failed to fetch http://debian.froxlor.org/dists/wheezy/main/binary-amd64/Packages: 404 Not Found [IP: 82.149.225.211 80]
    3. E: Some index files failed to download. They have been ignored, or old ones used instead.
    4. E: Couldn't rebuild package cache

    Da die Debian Pakete bei Release schon veraltet sind, unterstützt Froxlor nur Stable und OldStable, aber nichts noch älteres mehr. Es gibt keine Pakete für wheezy mehr. Da bedeutet, dass es in ein paar Wochen, wenn Debian10 rauskommt auch keine Pakete mehr für Jessie geben wird. Du solltest also dringendst gleich durchupgraden. Besser wäre es vermutlich, ein Backup zu machen und das unter Debian10 neu einzuspielen. Es gibt keinen Grund bei Debain etwas noch älteres als Stable zu nehmen.


    Wenn du den Fehler vorher nicht hattest, stellt sich für mich die Frage, ob du jemals updates gemacht hast? =O