Beiträge von Paul

    Wobei man das an dieser Stelle vielleicht auch nochmal etwas relativieren muss. Es gibt ja immernoch eine Art "Server Cipher Order" und sobald der Client eine sichere Cipher Suite unterstützt (also 99% aller Clients), dann wird diese auch genutzt. Die zusätzlichen Ciphers kommen ja wirklich nur dann zum Einsatz, wenn gar keine andere Möglichkeit besteht. Die Sicherheit von der Verbindung wird daher für den größten Teil der Clients also überhaupt nicht eingeschränkt. Das reine Anbieten dieser Ciphers ist also nicht unbedingt ein Problem. Problematisch wird es an dieser Stelle nur, wenn es einem MitM gibt, der es schafft, einen Fallback auf eine weniger sichere Verbindung zu erzwingen, wie z.B. bei


    Ich denke also, wenn einem die SSL Sicherheit so wichtig ist, ist ein Shared Webhosting vielleicht auch nicht unbedingt das richtige Produkt. Mit einem eigenen Server hat man ja problemlos die Möglichkeit die SSL Konfiguration so zu machen wie man sie gerne hätte.

    Er hat ja explizit nach einem System gefragt, das auf 'nem Webhosting läuft ;) . Außer osTicket fällt mir da spontan auch nichts ein. Die anderen Systeme fallen raus, sofern Du neue Tickets auch bei eingehenden Mails haben möchtest (oder gibt es bei netcup im Webhosting Packet 'ne Funktion für email piping?).

    Hast ja recht, aber es ist sicherlich nicht verkehrt, wenn man trotzdem nochmal eine Alternative nennt ;) Die Anforderung muss ja schließlich nicht in Stein gemeißelt sein.

    Interessant ist sicherlich auch Zammad (https://zammad.org/). Noch ein recht junges Projekt, aber sehr vielversprechend. Das stammt vom gleichen Entwicklerteam, das damals OTRS entworfen hat. Es wirkt aber deutlich moderner (Oberfläche, Chat-System etc.).


    Aber wohl kaum auf einem Webhosting lauffähig...Wobei ich der Meinung bin, dass man für sowas ruhig einen eigenen Server mieten sollten, wenn man schon so etwas wie ein eigenständiges Ticket System benötigt.


    Hast Du ein Beispiel, welche Provider das sein sollen? Das verstößt nämlich eindeutig gegen geltende RFC und sorgt sicher für Probleme, an denen der Mailserver mit erzwungenem TLS schuld ist.


    Spontan hätte ich jetzt gesagt, dass sich das RFC nur auf den Mailserver Teil bezieht (smtpd), nicht aber auf den Client Modus (smtp), welchen man ja nochmal unabhängig davon konfigurieren kann. Auch die Postfix Doku geht nur im Server Teil auf den RFC ein (http://www.postfix.org/TLS_README.html). Zumindest die Symptome machen den Eindruck, dass es daran liegen könnte. Ich selbst betreibe Mailserver seit einiger Zeit nur noch mit erzwungenem TLS. Falls da draußen wirklich noch Mailserver ohne TLS Unterstützung existieren, will ich mit diesen gar nicht kommunizieren und von diesen auch keine Mails empfangen. Wirkliche Probleme hatte ich damit auch noch keine. Aber das ist ein anderes Thema.


    Zurück zum eigentlichen Problem. Spliddorama: Siehst du nach der Umstellung (TLS Aktivierung) immer noch nichts in den Logs? Da müsste es doch zumindest Connection Versuche geben.

    Failover-IP umschwenken im Fehlerfall


    Vielen Dank für den Link. Da ich meist unangemeldet im Forum unterwegs bin, habe ich ihn im internen Bereich bisher noch nicht gesehen. Das Verhalten beschreibt meine Beobachtung sehr gut.


    Der letzte Ausfall war übrigens gestern abend. Ich kann nicht 100% ausschließen, ob es da nicht über das Web-Interface funktioniert hätte. Ich kann nur mit Sicherheit sagen, dass ein Schwenk der IP über das SOAP Skript nicht funktioniert hat. Mein Monitoring hat mich dann informiert, dass sowohl die Services als auch Ping auf die Failover IP nicht mehr funktioniert haben. Als der Server wieder online war, auch aber wie in der Vergangenheit das Routing nicht mehr Ok und musste manuell über das SCP korrigiert werden.


    Vielleicht schreibe ich dem Support wirklich nochmal eine kurze Mail mit der Info, dass es wohl immer noch Probleme gibt.



    Dass die Änderung des Routings etwas dauert ist meiner Meinung nach normal.


    Danke für die Bestätigung. Ich war immer etwa irritiert, weil es so lange gedauert hat und dies bei kleinen Wacklern zu Problemen geführt hat, weil die IP schon wieder auf dem anderen Server war, das Skript aber immer noch lief und so erneut getriggert wurde (auf dem anderen Server).

    Hallo Forum,


    ich nutze jetzt seit einiger Zeit eine Failover-IPv4 Adresse für einen Cluster um im Falle eines Ausfalls den Dienst weiterhin verfügbar zu haben. Im Konkreten nutze ich es für meinen Mail-Cluster. Dies habe ich mit Hilfe von Keepalived + einem Skript zum Routing der IP Adresse gelöst (dank Tipps hier aus dem Forum).


    Jetzt habe ich nur in den letzten Monaten festgestellt, dass diese Szenario so leider nicht funktioniert. Wenn die IPv4 Adresse auf einen Server geroutet ist und der darunter liegende Host ausfällt, lässt sich die IPv4 Adresse nicht mehr von dem Server lösen. Weder über das SOAP Protokoll noch über das Web-Interface (Es erscheint nur eine Fehlermeldung ohne Details). Nachdem der Host dann wieder da ist und der Server wieder läuft, scheint zudem das Routing der Failover IP kaputt zu sein. Hier hilft es nur, wenn man das Routing der IP manuell im Web Interface löscht und neu anlegt.


    Das ist in den letzten Monaten leider ein paar Mal passiert. Die Ausfälle waren nicht weiter tragisch, es macht nur meine Idee des HA-Clusters ziemlich nutzlos.


    Mich würde daher an dieser Stelle mal interessieren, wie ihr die Failover IP nutzt. Habt ihr vielleicht andere HA Lösungen? Weil im Grunde könnte ich sie mir auch sparen, wenn im Failover Fall die IP nicht mehr geroutet werden kann.


    Darüberhinaus dauert ein Ändern des Routings immer so 30 Sekunden. Mal etwas mehr, mal weniger. Ist das normal?


    Gruss
    Paul

    Wenn die Frage allein auf das Wiederherstellen der Zertifikate zielt, dann ist die Antwort recht simpel: Gar nichts. Du kannst jederzeit neue Let's Encrypt Zertifikate beantragen. Bei einer Laufzeit von 3 Monaten lohnt es sich gar nicht, da groß Backups zu fahren. Auch die private keys kannst du jederzeit neu erstellen. Ist im Falle einer Neuinstallation eh meist einfacher.


    Übrigens kannst du letsencrypt auch einfach aus den normalen Paketquellen installieren:

    Code
    apt install letsencrypt

    .
    Du hast dadurch zwar nicht die neuste Version, aber sparst dir einige Abhängigkeiten.

    Vielen Dank für die Info und die schnelle Reaktion auf solche Sicherheitslücken.


    Gehe ich richtig davon aus, dass wenn im VCP die Uptime der Server anfängt neu hochzuzählen alles so geklappt hat wie es ausgeführt werden soll?



    P.S. Manchmal können MySQL Master-Master Setups ganz schön nervig sein bei solchen Geschichten. Da zerschießt es einem Replikation schneller als einem lieb ist :whistling: .

    Aus meiner Sicht nicht so ganz. Der Happy 2016 ist ja doch eher wie ein normaler M Server.


    Mir schwebt da eher so etwas vor wie:
    * 2 virtuelle CPU
    * 4 GB RAM
    * 60-80 GB Festplatte (keine SSD um noch etwas im Preis runter zu gehen)
    * Keine Snapshots
    * ...


    Also schon in etwa genauso wie der Xmas 2015. Nur eben regulär zu einem etwas höherem Preis. (Wofür ich es verwenden würde: Datenbanken in einen eigenen Cluster auslagern (Galera))

    Für einen Monitoring Server sollte man auch nicht zu geizig sein, was die Hardware angeht. Hier fand ich den Xmas 2015 Server vom 1. Dezember geradezu perfekt und konnte zum Glück auch einen bestellen. Denn genau als Monitoring Server nutze ich ihn jetzt. Vor allem wenn man etwas wie Nagios, Zabbix etc. einsetzt, braucht man hier schon im Hintergrund eine einigermaßen performante Datenbank und entsprechend RAM (nutze im Durchschnitt von den 4 GB 55%).
    Ich persönlich würde mich ja über einen regulären Server freuen, der diese Hardware-Spezifikationen hat. Natürlich nicht zu dem Preis, sondern für etwas mehr (5 - 6 € wären hier im Vergleich zu dem S bzw. M Server sicherlich angemessen, dafür mit 60-80 GB Festplattenspeicher). Aber netcup kann natürlich unmöglich sämtliche Wünsche berücksichtigen. Aber Fragen darf man ja sicherlich mal :D.

    Das Microsoft Problem hat aber jetzt nicht direkt etwas mit dem rDNS Problem zu tun, welches bei web.de/gmx.de etc. aufgetreten ist. Microsoft scheint hier schon alleine aufgrund der IP Adresse Mails als Spam zu klassifizieren. Zumindest ist das mein Verdacht. Dass die zusätzlich auch nach rDNS filtern, kann natürlich auch gut sein. Nur hilft ein einfaches Ändern des rDNS Eintrages hier nicht weiter. Microsoft verrät ja auch nicht, warum etwas als Spam klassifiziert wurde, das macht die Analyse natürlich umso schwerer.

    Hallo in die Runde,


    interessante Diskussion. Vielleicht könnte man ja als Kompromiss einen weiteren vServer anbieten, der etwas mehr Fokus auf Speicherplatz hat. Momentan sind die vServer recht gut ausbalanciert. Wenn man jetzt wirklich dem Vorschlag von Herrn Preuß folgen würde und einen zusätzlichen vServer mieten würde, der im Grunde nur als Storage für andere Server dient, hätte man im Moment relativ viel "Leistung" verschenkt. Sinnvoll wird das ganze ja erst ab dem vServer M mit 240 GB Sata Festplatte. Aber selbst da hat man mit 6 RAM schon mehr als man eigentlich für einen Storage Server bräuchte. Wie die genauen Spezifikationen aussehen könnten, ist natürlich schwer zu sagen. Das muss ja schließlich auch noch für netcup rentabel sein. Aber eine Nachfrage sehe ich hierfür schon, gerade wenn man diese Diskussion verfolgt.

    In der ersten Zeile deiner .htaccess müsstest du so etwas wie

    Code
    # Version: 8.1.0


    stehen haben. Kontrolliere das mal mit der installierten Version. Das scheint von owncloud überprüft zu werden und gibt die entsprechende Fehlermeldung, falls es nicht passt.


    Poste am besten mal deine .htaccess und sage uns welche ownCloud Version du installiert hast.

    Vielen Dank für die Information!


    Aufgrund der sehr vielen kleinen Dateien entsteht beim Lesen der Daten schon recht viel Overhead, was den Traffic angeht. Ich werde es wohl einfach mal testen müssen. Falls dann unerwartet doch zuviel Traffic entstehen sollte, kann ich mir immer noch eine andere Lösung ausdenken.

    Na klar gibt es Metadaten, nur liegen diese eben im Backup Verzeichnis und werden von dort gelesen :-).


    Momentan habe ich allerdings etwas Bedenken, ob der Storage Space für mein Vorhaben wirklich die richtige Wahl wäre, wenn das mit dem begrenzten Traffic wirklich stimmt. Alternative wäre ein zusätzlicher Server. Wobei das auch wieder etwas Ressourcenverschwendung wäre, diesen nur als "Storage Space" für Backups zu nutzen. Zumal es nicht wirklich einen Server im Angebot gibt, der wenig Leistung, dafür viel Speicher besitzt.


    Am besten schreibe ich nächste Woche dem netcup Team mal eine email und frage nach wie das mit der Formulierung genau gemeint ist. Oder vielleicht meldet sich ja auch hier noch jemand vom Team, da diese Fragestellung sicherlich für einige interessant sein dürfte.