Beiträge von Skulduggery

    Zwar jetzt Offtopic, aber ich bin beruhigt das das Management bei Nextcloud sicherstellt das die User-Experience auch konstant gleich bleibt und das über Jahre hinweg. Von ihrem Plugin Ecosystem, absolut kaputten Crypto und Update Quality wollen wir garnicht erst Anfangen.


    Meine Entscheidung Nextcloud gegen Seafile zu traden war einfach eine gute Entscheidung. Performance auf Hardware bzw. Netzwerk Niveau, jedes Update ist ein schönes Update. docker compose pull && docker compose up -d und schon geht die Party fehlerfrei weiter. Ach ja das alles natürlich verschlüsselt, auf dem Client, im Transport und im Lager. Ordentliche Clients die funktionieren, und das nach jedem Update. Ich bin ja schon still..

    MTU 1420 ist doch eigentlich der Default Wert des wg Interface. Zumindest bei mir.

    Ohne MTU Parameter in der Konfigurationsdatei des VPS Servers sieht es so aus:

    Mein wg0 Interface hat ja auch paar RX Fehler. Eine Änderung der MTU Größe auf z.B. 1380 hat diese aber nicht beseitigt. Muss ich mir nochmal mit tcpdump anschauen, was das verursacht. Auf den Datendurchsatz haben diese Fehler aber bislang keine Auswirkung. Vielleicht laufen diese Fehler auch im IPv6 auf, was ich aber nicht verwende.

    Kannst du ggf. kurz dein Setup erläutern?

    Naja, der lädt seinen Code halt auch irgendwo im Internet runter. Ich muss ihn mal bei Microsoft fragen, was 2+3*4 gibt. Hoffentlich benutzt er nicht den Microsoft Rechner im Standard-Modus. Die haben ja die Operatorpräzedenz bis heute nicht in den Standard-Modus eingepflegt, so komplizierte Berechnungen sind halt im Standard nicht vorgesehen. Im Modus "Wissenschaftlich" funktioniert es dann aber immerhin richtig.

    Mir wäre neu das ein LLM etwas herunterlädt um dir zu erzählen. Das Modell wurde einfach mit Code der verfügbar ist / war trainiert. CodePilot und JetBrains AI machen nur um welten einen besseren Job als ChatGPT, nichts destotrotz brauchst man Programmier wissen, da der Code zum Teil absoluter Müll ist, aber an manchen Tagen sind die Snippets auch Timesaver.

    Ich weiß nicht ob dir das auch weiter hilft, aber für dieses durchaus kleine und unkomplizierte Setup würde ich dir einfach zu einem Caddy Webserver raten.

    Ganze Konfiguration die du dafür brauchst:

    Code
    nodehub.de {
        reverse_proxy 127.0.0.1:8080
    }

    Generell würde ich dir empfehlen dein Setup in ein Docker Compose zu überführen. Das macht am Ende in der administration einfach mehr Spass. Da kannst du dann auch Caddy einfach als Container mit reinwerfen und in der Caddy Config einfach auf den Container Namen + Port verweisen und das wars, dann muss dein Trillium auch nichts exposen.

    Wenn du in einem Mehrparteinhaus lebst und dein Paketbote seit Jahren die Namensschilder nicht lesen kann, dann weißt du was leiden heißt...


    Für mich ist es ja nur das Highlight das wir zwei verschiedene Eingänge (2 Parteien Haupteingang) (1 Partei Nebeneingang) haben und es nur eine Frage der Zeit ist bis jemand einfach mein Paket am Haupteingang kaputt tritt, weil man sowas auch direkt vor die Tür mittig in den Weg legt... am besten noch unter die Sohlen kleben... Manchmal weiß ich einfach nicht weiter.

    Scheinbar ist an der ipv4 und ipv6 wohl wirklich etwas dran. Zumindest laut dem Forenbeitrag:


    https://success.qualys.com/discussions/s/question/0D52L00006bwZogSAE/warning-inconsistent-server-configuration-what-does-this-mean-when-this-warning-appears-on-the-qualys-site-when-i-am-checking-the-security-of-a-particular-url-


    Ich glaube aber das dir die Erneuerung nicht geglückt ist, weil IPv6 wohl am Webspace nicht mehr erreichbar ist.

    Du siehst in deinem Screenshot <deine-domain> zu deiner <ip-adresse> das ist quasi die Auflösung Vorwärts und Reverse bedeutet Rückwärts quasi in diesem Fall bedeute deine IP-Adresse löst zu deiner Domain auf. Wie sowas beim Webspace möglich ist und nicht, durchaus interessante Frage.

    Nur mal so aus fachlicher Sicht, du weißt was du da planst?


    Ich betreibe zwar bei mir intern einen redundanten PowerDNS Auth, PowerDNS Rec, dnsdist, PDNS-Admin Stack, aber ich weiß auch das das Zeug niemals die Welt sehen sollte. Nicht weil es nicht toll funktioniert sondern, weil DNS einfach so unglaublich komplex ist, und ich jetzt mal mutmaße das du genauso wenig Operational Knowledge im public Betrieb zu sowas hast wie ich. Ausser du beabsichtigst das nur Intern zu verwenden, dann kannst du das eigentlich auch auf bestehende Server einfach drauf werfen und gut ist. PowerDNS Auth reicht für sowas z.B. vollkommen aus und braucht keine Ressourcen da ist sogar dein piko Server schon absolut overkill.


    Mein Stack ist ein alpine linux virt mit docker compose und braucht ohne den PDNS-Admin vielleicht <256Mb Arbeitsspeicher.

    Das Hause Skulduggery empfiehlt, ja ich weiß, dd over ssh, oder DDoSSH!


    1. Server 1 mit sysrescuecd booten
    2. Server 2 mit sysrescuecd booten
    3. Server 1 folgenden Befehl ausführen
      1. dd bs=16M if=/dev/sda | ssh root@<Server 2> "dd bs=16M of=/dev/sda"
    4. Nach erfolgreichen Abschluss alle Beweise vernichten und sich unsicher fühlen ob es gut war

    Ist getestet hab damit letztes einen Virtuelle Maschine von einem Cloud Anbieter auf meinen Root Server umgezogen.

    Ich sehe zwar deine Konkrete Meldung nicht, aber Sie wäre auf jeden Fall durch aus korrekt. Dein Webserver liefert ein Abgelaufenenes Plesk Self-Signed Zertifikat aus.


    Ich würde für die Seite einfach Mal alle Zertifikate die du findest löschen und ein sauberes neues per Let's Encrypt machen lassen.


    Ich weiß nicht welchen Einfluss du auf die Cipher nehmen kannst, den ich gehe bei Plesk davon aus das es sich um ein Webspace handelt, aber hier kann man auch noch eine Menge machen.

    Mein aktuelles Namenskonzept sieht folgendermaßen aus:


    ip-127-<standort-id>-0-1.hosting.<unloco/stadt>.<unloco/land>.localdomain -> A Record, Grundsätzlich jeder Server der einen Dienst anbietet

    ip-127-<standort-id>-0-1.management.<unloco/stadt>.<unloco/land>.localdomain -> A Record, Grundsätzlich jedes Management Interface

    <service>.localdomain -> CNAME auf A Record, Grundsätzlich der Name unter der eine Anwendung vom Benutzer aufgerufen wird


    https://unece.org/trade/cefact/unlocode-code-list-country-and-territory


    Probleme damit? Persönlich nein, Andere ja.


    So mancher (möchtegern) E-Mail Anbieter hat scheinbar eine Allergie gegen sowas, weil nur SpAmEr solche Namen wohl nutzen, bzw. davon ausgegangen wird das der Administrator des Server mit dem provisonierten Hostnamen des Anbieters losgegurkt, Verzeiung, ich meinte losgewatschelt ist.

    Nachdem ich beruflich seltsame Dinge als Open Source Monitoring Consultant mache, tendiere ich aktuell dazu Zabbix zu empfehlen. Die haben das alles recht simple in Docker verpackt, ja ihre compose ist ein kleines Chaos, aber Sie muss nur einmal angepasst werden, dann läuft die Bude wie am Schnürchen. Sonst hat es zwar auch so seine kleinen Eigenheiten, aber im gesamt Paket spielen Sie am Puls der Zeit mit und entwickeln sich auch mit jeden Major Realse prächtig weiter.


    Sonst kann man noch check_mk in den Ring werfen, aber das habe ich zuletzt vor 8 Jahren angeschaut. Wenn deren komplette Check Bibilotek auch in der Free Version enthalten ist, dann ist es schon übermächtig für ein Homelab. lul.

    Icinga 2 habe ich mal gemacht, aber für mich macht das Projekt einfach keine zielführenden Fortschritte mehr. Zumindest habe ich irgendwann keinen Icinga Director mehr verwendet, sonder nur noch alles per Konfigurationsdatei mit bisschen Automation. Zudem hat Icinga 2 so einwenig das Problem das es davon lebt das Menschen Plugins produzieren und allen voran pflegen. Dadurch das wir hier von Open Source (ja ich weiß, es gibt auch Pay2Use Plugins) reden, ist entsprechend die Erfahrung, das die Plugins mit der Zeit sterben werden, wenn sich keine große Nutzerschaft findet mit ein paar Pflegern. Allen voran wurden viele Plugins in Perl geschrieben, was stellenweise die Portabillität auf neue Systeme zu einem Abenteuer machen kann. Die Nagios/Monitoring Plugins die über die Paketverwaltung kommen kann man sowieso vergessen, die muss man sich mittlerweile mit deren Github Repo ohnehin selbst kompilieren. Da kann man nur noch die Empfehlung ausprechen zu prüfen ob man die Nagios Plugins komplett über Board wirft und sich einmal die Mühe macht die centreon-plugins komplett für Icinga 2 zu implementieren. Da ist man dann auf lange sicht auf dem guten Zweig unterwegs wenn es Icinga 2 sein muss. Ich rate wie gesagt davon ab da Sie im Grunde den Punkt vermasselt haben sich von ihrer Nagios Kompatibilität zu trennen und das zu machen wofür diese 2 am Ende eigentlich gedacht war. Ausserdem ist die Skalierung so ein Thema die man jetzt hier im Forum wohl ehr weniger erreicht, eine Thematik für sich selbst. Selbst die IcingaDB macht das denke ich nicht zwangsläufig besser sondern erhöht die komplexität ohnehin ins unnötige weiter.

    Kleiner Nachtrag:


    Wenn jemand ein CentOS/RHEL benutzt, hat seit 2021-11-12 keine öffentlichen Icinga 2 Pakete mehr. Diese wurden von der Icinga GmbH hinter einen "Paywall" geparkt und hierzu muss ein "Vertrag" oder "Abo" gekauft werden. Fedora ist wohl unberührt davon. Die Spec Dateien für das bauen von CentOS/RHEL Paketen kann man, aber auf ihren öffentlichen Gitlab Server einsehen und sich damit selbst Pakete bauen, nur halt ohne "Support".


    Das ist meine unbiased Meinung zu dem Thema.

    Mag sein das für dich MongoDB eine GoTo Sache ist, für mich ist es einfach nichts und gemessen an den Applikationen die ich mit MonogDB schon getestet oder teilweise betrieben habe, will ich es einfach nicht haben. Das ist nix ganzes und nix halbes.


    Nein, keine gute Idee.

    Warum soll den eine SQLite keine gute Idee sein? Meiner Meinung nach muss man nicht alles direkt auf eine Full Feature RDMS schmeissen ohne zu wissen ob es überhaupt ein Problem mit kleineren feineren Implemenationen gegeben hätte. Gerade diese Full Feature RDMS und NoSQL Technologien fügen plötzlich ein Komplexitäts Layer hinzu das es vielleicht garnicht gebraucht hätte. Einfach bauen und schauen wann sich wirklich Probleme ergeben und dann diese entsprechend lösen. Von Theorien über Probleme behindert man sich mehr beim Coden als einfach zu machen und dann die realen Probleme zu lösen.


    Aber wir hatten ja schon das Thema mit:

    Sehr sehr viel Meinung.


    Warum braucht man da jetzt einen Message Broker? Es geht hier um eine Datenbank und nicht um einen Crashkurs in Micro-Service Architektur.

    Naja du scheinst ja auch voreingenommen zu sein von dem her lass ich das auch mal so stehen. Ich hab meine Meinung zu PHP/MySQL Stacks und du hast deine Meinung zu Architekturen die einem das Leben unter Umständen einfacher machen.

    Nachdem ich schon mal mit einem Request Tracker in der Größen Ordnung +2TB gespielt habe, kann ich nur versuchen dich davon abzuhalten, denn das Ende vom Lied war das man Regelmäßig per Skript, das vom RT Mitgeliefert wurde, die Anhänge auf nen NFS Share weggeschoben hat.


    Die Antwort lautet auf jeden Fall nicht Relationale Datenbank. Die sind in sich per Design ein SPoF den du nur mit deiner Applikation sinnvoll lösen kannst. Ja man kann ein Galera Cluster betreiben und ich kann dir sagen das dieses RT von dem ich da oben spreche, vorher auf einem Galera lief und am Ende auf ein Master-Slave Blech setup migriert wurde, weil es absolut scheisse skaliert. Galera schickt erst dann ein ack für deinen write wenn alle ihn geschieben habe. Backups mit Galera in der Größen Ordnung kannst du praktisch komplett vergessen. MySQL/MariaDB hingegen gehen noch mit mysqldump.


    Ich würde dir für solche Datenmengen ehrlich gesagt alles andere als PHP mit MySQL als Stack empfehlen, weil das einfach schon per se zum scheitern verurteilt ist. Als Beispiel finde ich das Nextcloud es schon fantastisch zeigt wie man es einfach nicht machen sollte, aber die haben noch mehr Probleme als nur ihr Stack.


    MongoDB kann man auch kostengünstig gegen /dev/null ersetzen.


    Wenn dir ein verteiltes System wichtig ist das skalieren kann, kann man über Cassandradb durchaus nachdenken. Es ist zumindest eine Lösung die gewisse Probleme im Datenbankbereich in der Frage Verteilung/Skalierung gut löst.


    Wie man merkt habe ich eine Abneigung gegen PHP und MySQL und das leider irgendwie mit Erfahrungswerten.


    Ich bin ein großer Fan von C# geworden nachdem die viel richtig machen. PostgreSQL wäre im Relationalen Bereich mittlerweile mein Standard nachdem die viele nette Erweiterungen bieten wie z.B. TimeScaleDB und richtig top durch optimiert werden können. Fang am Besten mal mit einer SQLite an und schau wie weit du kommst.


    Wenn ich mir einen Traum Stack bauen könnte der so einiges kann, würde ich auf C#/Elixir/Rust mit Kafka und CassandraDB setzen um wirklich alles abzudecken was mir nur passieren kann in Frage Skalierung/Verteilung/Integrität.

    Ich will aber auch sagen das wir hier nicht von einem Stack reden der Mal eben gebaut wird. Dafür sollte man wirklich ernsthafte Programmierung Erfahrung haben damit das Design von Grund auf zumindest solide ist. Perfekt wird sowas sowie so nie, aber man kann sich schon gut den Weg zum soliden Zustand verbauen.

    Naja 10Gbit über RJ-45 ist auch mehr probieren als studieren. Wirklich funktionieren tut das meist nur unter sehr optimistisch optimalen Bedingungen auf kurzen Strecken.


    Angeblich soll Cat6a mit den Frequenzen laut Spezifikation klar kommen, Cat7 entsprechend besser und den Stecker sollten wir auch nicht vergessen.


    Bei ernstgemeinten 10Gbit Anwendungen würde ich ehr auf SFP+ Module mit DAC oder AOC als RJ45 leider setzen. Zu Mal dein Switch / Netzwerkkarte da deutlich Relevanter sind.

    KosMos Ich würde dir empfehlen in diesem Thread einfach Mal eine Runde Aussetzen zu spielen.


    yunus Dein Vorhaben wirkt in vielen Punkten für mich irgendwie einfach nicht schlüssig.


    Einfach Mal 10 Desktops an der Ressourcengrenze 24/7 zu Betreiben, um "aufgezeichnete Bewegungsmuster" in einem "Google Sheet" zu verarbeiten hört sich einfach absolut Sinnbefreit an.


    Für dieses Projekt würde ich mir entweder inhouse was hinstellen oder dediziertes Blech mieten. Abgesehen davon das es deutlich bessere Testsoftware als click and run Spaghetti Software für Windows Benutzer.


    Nachdem du quasi irgendwas in deiner Fantasie mit Linux und irgend einer Software gemalt hast, ohne es offentsichtlich einfach selbst zu können, wird das nur in einer Achterbahn-Schaukel enden.


    Entweder machst du richtig krumme Sachen oder bist absolut Beratungsresistent gegen Intelligente Vorschläge oder etwas ganz großem auf der Spur.

    Hui. Wow. mhm. ähm.


    Also du hast aktuell deine Domains bei Netcup liegen mit "externen" DNS Server der von desec.io bereitgestellt werden, korrekt?


    Den Teil mit du willst deinen SPoF weg haben, irgendwie noch verstanden, aber dein Implementationsdesign ist bisschen wirr.


    PowerDNS finde ich persönlich eine schönere Wahl, weil:

    • mächtig
    • schlank
    • api

    Im Grunde kann ich die Frage mit deinen Router nur semi beantworten, weil dein Design noch nicht ganz klar ist, aber. Du würdest im Endeffekt einfach nur einen DNS Server bei dir Zuhause betreiben und deinem Router sagen das dieser benutzt werden soll. Der Rest muss dann von deinem DNS Server beantwortet werden.


    Im Endeffekt habe ich es bei mir so. Meine Domains liegen bei einem Domain Anbieter in Deutschland und ich verwende seine DNS-Server für die öffentliche Seite. Für die Interne Seite habe ich aktuell zwei Pi-Hole Instanzen laufen die per DHCP verteilt werden, oder per Hand statisch eingetragen sind. Zu dem betreibe ich das ganze als Split-DNS. Bedeutet das du intern anderst aufgelöst wirst, als extern. Entsprechend nimmt man bei mir auch unterschiedliche Wege zu seinem Ziel.


    Mein Setup werde ich aber noch umbauen, weil Pi-Hole ehr ein rudimentärer DNS Server ist wenns um eigene DNS Records geht. Da werde ich auf PowerDNS schwenken. Der Auth Server wird dann meine Internen Zonen halten. Vor dem steht dann der Recursor der bei internen Anfragen auf den Auth geht und bei Externen Anfragen das Pi-Hole frägt. Vielleicht mache ich aus jux noch einen dnsdist davor aber das wäre dann schon bisschen übertrieben.

    Ich muss sagen, nach der letzten Antwortmail habe ich den Kontaktversuch auch endgültig abgebrochen.

    Zitat

    * (abgeändert aus Privacy Gründen)

    Bildet euch eure eigene Meinung, aber für mich ist das einfach nur lächerlich.


    Wenn Leute mich auf Grund der Telekom nicht mehr kontaktieren können, so ist es ihr eigenes Leid. Ich werde definitiv nicht mit Firmen / Menschen zusammenarbeiten die sich für gelebte Diskriminierung einsetzen und oder mir vorschreiben wie viele Server ich Privat haben darf und wie ich Sie zu nennen habe!


    Es gibt RFC Standards, Gesetze und den allgemein bekannten gesunden Menschenverstand. Solange niemand gegen diese drei Elemente verstößt sollte es irgendwie auch kein Problem geben.