Beiträge von frostschutz

    Befehl nicht gefunden | Befehl nicht gefunden > Leere Datei


    Meistens ist es sowas in der Art, weil im Cron der PATH nicht so gesetzt ist wie auf der vollwertigen Shell.


    Aber klar, dann dürfte die Variante mit && eigentlich auch nicht funktionieren. Vielleicht doch ein Schreibfehler gehabt?


    Es ist ein Ratespiel, du musst für jeden Befehl in der Kette auch stderr und den Exitcode mit einfangen um da weiterzukommen.

    Ich kenne mich mit Plesk nicht aus aber . hinterm Domainnamen ist allgemein (mit DNS Nameserver Geschichten) relativ normal... Wenn du auf der Shell mit dig hantierst, sind die Punkte auch überall. Wenn es dir Spaß macht kannst du sie auch im Browser eingeben... https://netcup.de./ wird halt u.U. umgeleitet


    Code
    $ dig netcup.de
    ;; AUTHORITY SECTION:
    netcup.de.        7200    IN    NS    second-dns.netcup.net.
    netcup.de.        7200    IN    NS    third-dns.netcup.net.
    netcup.de.        7200    IN    NS    root-dns.netcup.net.


    Auf YouTube konnte man mit dem extra . mal die Werbung loswerden... Trick 17 ;)

    Dort habe ich einen Fehler erhalten, dass ich nicht genügend freien Speicher hätte


    Wenn das Dateisystem 100% belegt ist kann das komische Fehler auslösen. Ist denn jetzt wieder was frei?


    Debuglog für sshd aktivieren / checken? (LogLevel in sshd config)


    Falsche Berechtigungen, Schreibschutz im Homeverzeichnis udgl. sind auch noch beliebte Kandidaten. Wenn du im chroot als Root unterwegs bist auch dort mal su zum normalen User machen und in dessen homedir schauen, ob das geht...


    Du könntest im chroot auch einen komplett neuen User anlegen und schauen ob der sich einloggen kann.

    fsck steht für file system crunch kill - das ist kein Datenrettungstool sondern ein Dateisystemzerstörer.


    Wenn fsck anfängt Fragen zu stellen wird es haarig, da muss man im Prinzip sofort abbrechen und erstmal testen was da überhaupt passiert mit einem Snapshot, oder Copy-On-Write Overlay wie hier : https://raid.wiki.kernel.org/i…nly_using_an_overlay_file : oder ganz klassisch 1:1 Kopie ( unausweichlich bei Festplattenfehlern, erstmal ddrescue - man kann auf einer defekten Platte keine Dateisysteme reparieren )


    Erst wenn man so ein Sicherheitsnetz hat, das alle Veränderungen jederzeit wieder rückgängig macht, kann man mal fsck drüberbügeln lassen. Und wenn das nicht klappt, muss man eben was anderes probieren (mit Backup-Superblocks, mit debugfs, zur Not mit photorec, ...). Darüber hinaus dreimal prüfen ob /dev/sda2 wirklich das richtige Gerät war und nicht noch LVM, RAID, oder sonstwas dazwischen.


    Wenn du Pech hast, dann ist nach fsck das Dateisystem 100% OK aber auch 100% leer. Und von diesem Zustand kommst du nicht mehr weg, da fsck ja die ganze Zeit munter lustig (womöglich unter falschen Annahmen) auf die Festplatte geschrieben und alles irreversibel verändert hat. Und in einer Datenrettungssituation ist alles was man schreibt eben erstmal zusätzlicher Schaden...

    Die Seite läßt sich da beliebige Parameter anhängen und diese werden dann sogar ins link rel canonical so mit reingeschrieben, also Google wird geradezu angewiesen das so zu indizieren, und die Parameter tauchen auch an anderer Stelle im Quelltext auf. Und so macht deine Seite dann unfreiwillig Werbung für andere...


    Normalerweise gehört das gefiltert, also nur tatsächlich bekannte und relevante Parameter ins Canonical und in die Ausgabe. Du hast keinen Einfluss darauf wie andere deine Seite verlinken und welche Parameter sie anhängen, aber dann sollte das keinen Einfluss auf die Ausgabe und Canonical-Tags haben.


    Eine Stufe stärker wäre dann noch explizite Redirects zu machen, so wie es das Forum hier tut wenn ich den Link https://forum.netcup.de/anwend…-seite-mit-meiner-domain/ stattdessen ändere zu https://forum.netcup.de/anwend…3241-irgendwas-komisches/

    Zitat

    ist das ein Problem? Kann ich mit "Yes" weiter gehen?


    Ja. Kann nur sein daß parted dann die anderen Werte auch wieder von Hand eingetragen haben will (Partitionsnummer 2 und 100% oder -1 als Endsektor).


    Und wenn du Pech hast musst du vor dem resize2fs neu starten, je nachdem ob der Kernel die neue Partitionstabelle im laufenden Betrieb akzeptiert oder nicht.

    Find ich nicht sonderlich komfortabel. Beim ersten Aufruf frägt er mich ob er irgendwas fixen soll, und danach ignoriert er die Aufrufparameter und frägt nach der Partitionnumber.

    Hi, daß parted (im Fall von GPT) erstmal fragen wird, ob das GPT-Header-Backup am Plattenende neu geschrieben werden soll, habe ich direkt vergessen.


    Sollte in dem Fall beim zweiten Aufruf klappen oder du kannst erstmal nur ein `parted /dev/sda print` machen, da hast du dann auch schon den Fix.


    Repariert man das GPT nicht, könnte das auch der Grund sein, warum die neue Partition wieder nur 20GB hatte. GPT merkt sich die Festplattengröße.

    ext4 auf /dev/sda2 vergrößern geht im Prinzip so:


    Code
    parted /dev/sda resizepart 2 100%
    resize2fs /dev/sda2


    geht allerdings nur wenn sda2 die letzte Partition war und keine weitere Partition im Weg ist. Manchmal muss man zwischen parted und resize2fs auch rebooten.


    Falls eine /dev/sda3 (z.B. Swap) existiert dann musst du dich zuerst um diese kümmern (im Fall von Swap löschen und neu anlegen, im Fall von weiteren Dateisystemen eben doch z.B. mit gparted verschieben).

    Ich habe kein Windows / RDP aber ich bin auch dazu übergegangen, das mit Wireguard zu machen und SSH, VNC & Co nur noch über Wireguard anzubieten.


    Anders als SSH, VNC, OpenVPN, ... kennt Wireguard nur Keys (Public, Private, Preshared) somit gibt es da keine Bots die endlos sinnlos Loginversuche machen.


    Der SSHD hat hinter Wireguard somit seine Ruhe und man braucht nicht mit Portänderungen oder fail2ban hantieren.


    Zitat

    Ein Problem dabei wäre, dass ich über den VPN nur Traffic zulassen will, der auch für das RDP gedacht ist. Alles andere sollte nicht darüber gehen.


    Das ist dann leider Sache der Netzwerkkonfiguration / Firewall. Und zwar auf beiden Seiten (Server und Client).


    Wenn man das wirklich wasserdicht machen will, ist es auch wieder Aufwand. Normal wird es nicht gemacht und man geht von der "Vertrauenswürdigkeit" innerhalb des virtuellen lokalen/privaten Netzwerks aus.


    Das ist eben der Haken an der Geschichte, mit VPN (komplettes Netzwerkinterface + IP) eröffnet man sich viele neue Verbindungsmöglichkeiten — in beide Richtungen, nicht nur beschränkt auf einen Dienst — und am Ende hängen die lokalen privaten Freigaben am Server oder die Clients reden untereinander miteinander wenns doch nur für die Verbindung zum Server gedacht war. Kann ja auch so gewollt sein, aber man muss es halt wissen und abschätzen was passiert, wenn der Server dann doch mal auf einem anderen Weg gehackt werden sollte.

    Eine Seperate grub Partion ist nicht notwendig, wenn man es macht wie ich es beschrieben habe. (und ich verwende ebenfalls gpt)

    Ähm, OK, dann bist du halt auf der Schiene:


    Zitat

    Embedding is not possible. GRUB can only be installed in this setup by using blocklists. However, blocklists are UNRELIABLE and their use is discouraged.


    War mir nicht klar, daß du das explizit so haben willst.


    Die Grub Partition tut nicht weh...

    Zitat

    2 Partitionen, eine unverschlüsselte boot partition und eine luks2 verschlüsselte Partion


    Hab ich auch so...


    Zitat

    mit grub-install --force die blocklist installation erzwungen (macht er sonst nicht mehr)


    ...das allerdings nicht. grub-install geht problemlos wie es soll?


    Bei GPT Partitionierung ist halt noch eine bios_grub Partition dabei. Sollte bei msdos Partition auch ohne gehen...



    Code
    # grub-install /dev/sda
    Installing for i386-pc platform.
    Installation finished. No error reported.

    2) Hat es eigentlich eine (reduzierende) Auswirkung auf die snapshot-Möglichkeiten im SCP, was den zu Verfügung stehenden Platz angeht, wenn man lvm dazwischen legt?

    Platz hast du wenn du fstrim machst (sonst nur das wo noch nie geschrieben wurde - ob Nullen erkannt werden habe ich nicht ausprobiert). fstrim bügelt freien Speicher weg. Gelöschte Dateien lassen sich dann aber nicht wieder herstellen.


    Mit issue_discards=1 in lvm.conf macht LVM auch TRIM wenn du ein LV löschst oder verkleinerst oder sonstwie verschiebst so daß vorher belegte Extents im LVM frei werden. Falsche lvresize-Befehle lassen sich dann aber nicht rückgängig machen (anhand /etc/lvm/{backup,archive}/), die Daten sind dann schon weg, wenn das Dateisystem größer als das LV war.


    Daher lieber issue_discards=0 in lvm.conf und bei Bedarf den freien LVM-Speicher von Hand wegbügeln


    Code
    lvcreate -l100%FREE -n discard deinevg
    blkdiscard /dev/deinevg/discard
    lvremove deinevg/discard


    Wenn du deine VGs voll belegst (0 free extents) dann ist das hinfällig und fstrim reicht.


    Falls du was mit Verschlüsselung (cryptsetup) machst, das braucht ein --allow-discards damit fstrim durchgeht.

    Ich nutze selbst nginx seit Ewigkeiten und eigentlich auch nur, weil ich bei Apache den Konfigurationsdschungel nie so 100% durchblickt habe. Und davon daß man Apache überhaupt nicht benutzt wird es natürlich nicht besser.


    Aber das soll keine Empfehlung für nginx sein. Das ist ein sehr leistungsfähiger Webserver, mit sehr unintuitiver Konfiguration. Bei nginx geht ziemlich leicht ziemlich viel schief, der Teufel steckt im Detail... plötzlich hat der falsche Server- oder Location-Block Vorrang oder eine Anweisung wird ganz ausgehebelt, und php führt die falschen Dateien (nicht) aus. nginx pitfalls und nginx if is evil (muss jeder gelesen haben) ist da nur ein Teil davon. Von der Dokumentation her wird das oft nicht klar, und man findet erst im nginx Forum oder Bugtracker was dazu.


    Ich habe ein kleines Shellscript das für alle Domains und Subdomains, HTTP wie HTTPS, diverse Dinge abfragt (ganz banal mit curl | grep). Fehlercodes, Umleitungen, Header, Inhalte, Sonderregeln müssen stimmen. Und bei jeder noch so kleinen Konfigurationsänderung wird damit einmal alles durchgetestet. Zusätzlich zum regulären Monitoring, das (in der Regel) nur eine Seite abfragt um zu schauen ob das Ding überhaupt online ist.


    Anders kann man es kaum zuverlässig betreiben. Praktisch jede nginx-Konfiguration hat irgendwelche Fehler. Gerade wollte ich forum.nginx.org aufrufen und... HTTPS-Zertifikat abgelaufen. ;) Der Test der da bei mir spätestens 3 Wochen vorher warnt, der fehlt in meiner Konfiguration auch noch... seufz.


    expired.png


    EDIT:


    tl;dr Dem Besucher ist es egal, mit was deine Seite läuft. Spielen kann man immer aber wenns läuft, dann spricht auch nichts dagegen, es einfach so zu lassen.

    Habt ihr eure Datenbanken auf dem Webserver (also lokal), oder auf einem 2. Server ?


    Wenn es nicht lokal läuft, dann muss auf einmal alles übers Netzwerk. Da kann es schnell mal Probleme mit der Bandbreite geben und mit Latenzen, die sich summieren weil es ja meistens nicht bei der 1 DB-Abfrage bleibt. Ein 2. Server bringt keinen Geschwindigkeitsvorteil sondern erstmal nur Nachteile. Das lohnt sich nur wenn die Anwendung drauf optimiert ist oder anderweitig so stark profitiert daß die Nachteile ausgeglichen werden.

    Mir ist auch immer noch nicht klar, ob es überhaupt wichtig ist, von VIRTIO auf SCSI umzustellen, also was das bringt?


    Wenn bei dir alles funktioniert dann gibts auch keinen Grund zum wechseln. ;)


    Bei mir gabs mal richtig fiese Hänger mit virtio (cpu stuck) und seitdem stehts auf scsi... aber das ist eine Ewigkeit her.

    Bei dem Kündigungstermin (einer DE-Domain) geht es ja um die Jahresgebühr. Wenn du die Domain rechtzeitig mit dem Authcode wegziehst, hat sich das ohnehin erledigt. Netcup kann ja keine Domain verlängern die nicht mehr bei Netcup liegt (es sei denn vielleicht man will das als externe DNS-Server verkaufen). Kündigung ist so gesehen ein Löschauftrag.


    Wenn du draufklickst kommt da auch so ein Popup "Sie beauftragen uns mit der Kündigung die Domain zu löschen. Die Domain ist dann nicht weiter nutzbar und kann nach der Löschung auch nicht zu einem anderen Anbieter übertragen werden. Beachten Sie, dass zum Kündigungsdatum alle mit dieser Domain genutzten Dienste nicht mehr erreichbar sind ..."


    Ich würd das nicht kündigen, entweder du ziehst um oder die Domain wird eben nochmal für ein Jahr bei Netcup bezahlt, das ist ja ein vertretbares finanzielles Risiko. Umzug vergessen oder krankheitsbedingt doch nicht durchführen können und die Domain verlieren weil ein Löschauftrag in der Warteschleife ist, das wär dann ziemlich dumm gelaufen.