Beiträge von Dirk67

    ... jetzt bekomme ich die gleiche Meldung wie du. Sprich "lvresize -l 100%free /dev/volume/root" will meine Partition wieder auf 39.xx GB verkleinern.


    nee, neee, das kann gar nicht angehen "Beide Anleitungen sind getestet und funktionieren" :D
    Ich bin mittlerweile der Meinung, dass diese Anleitung genau ein mal funktioniert (am Anfang) und dann nie wieder (?)
    und ist irgendwas zerschossen bei dir ?
    sonst könnte ich ja auch mal "lvresize -l xxG /dev/volume/root" probieren :whistling:
    (vom rettungssystem aus oder vom live-System ?)



    [Edit]
    ist es nicht eigentlich so dass man beim LV vergößern erst den lvmextend durchführen muss und erst danach (nach unmounten) das Dateisystem vergrößert werden muss ? (lvmextend ist ein subset von lvmresize)

    Zitat

    Jetzt wurde erst die virtuelle Partition, also das Logical Volume vergrößert. Zusätzlich muss man nun auch das darin enthaltene Dateisystem vergrößern. Zuvor muss es allerdings mit umount aus dem Verzeichnisbaum entfernt und noch mit e2fsck auf Fehler überprüft werden.


    Quelle -> Linux LVM-HOWTO
    oder auch hier:
    debianforum.de • Thema anzeigen - Partitionstabelle mit lvreduce/lvextend zerstört

    Zitat

    Beim Vergrößern ist es übrigens genau umgekert: Erst lvextend und dann das Dateisystem selbst vergrößern.

    unsere Anleitung macht es m.E. aber genau umgekehrt (?)

    ja, habe ich 2 Stck.
    aber die sind ja winzig im Vergleich zu den fehlenden 40GB
    (aber ich werde mal versuchen diese zu löschen, wie es dann aussieht)


    ich hatte dich auch hier --> KVM Server Snapshots (wo?)
    so verstanden, dass die gar nicht in meinem Zugriffsbereich (meine Partitionen) liegen (?)


    umgekehrt würde das ja bedeuten, wenn es mir jetzt gelingt, die vollen 80GB zu Partitionieren, könnte ich keine Snapshots mehr anlegen...

    Der Support weiß leider auch nicht weiter,
    bzw. er möchte mich nicht weiter unterstützen 8|:evil:
    (Beide* Anleitungen seien getestet und OK so.)
    *(die hier im Thread und die im WIKI)
    (dass es bei u.a bei den Usern Dragon, Track1991, juergentraum, Ditti auch nicht richtig funktioniert, scheint nicht zu interessieren)


    Da ich ja laut Produktbeschreibung (=Vertrag) 80GB erhalten sollte,
    weiß ich jetzt nicht was ich machen soll.

    Die Anleitung im Wiki funktioniert (auch vor der Änderung) schon


    nun gut.


    hier dann meine aufgezeichnete Sitzung (streng nach Wiki):
    wo ist mein Fehler ? :S


    zunächst im Normalsystem:



    Dann boote ich ins Rettungssystem:
    (am Ende dann der Fehler welchen ich mit [n] beantworte...


    Diese Meldung ist ein deutliches Indiz dafür das Sie nicht alle schritte ausgeführt haben und Ihre Partitionstabelle daher nur eine so kleine Partition zulässt.


    Daher nochmal Schritt für Schritt:

    • Rettungssystem starten
    • LVM deaktivieren mit:


    Code
    vgchange -a n volume


    das Wiki beginnt aber anders mit

    Code
    ~# /etc/init.d/lvm2 stop


    der von Ihen oben verwendete Befehl "vgchange" kommt in Ihrem derzeitigen Wiki/Tutorial gar nicht vor ...
    auch das von Ihnen o.g. "vgextend" kommt in Ihrem Wiki nicht vor ...


    des weiteren werden im WIKI die Befehle "lvresize" "resize2fs" während des Rettungsmodus ausgeführt und in Ihrer Anleitung hier im Thread werden sie erst wieder im normalen Modus ausgeführt ...


    ich bin verwirrt :D

    leider funktioniert auch das geaenderte Tutorial nicht:


    anstatt wie es sein soll:

    Code
    :~# lvresize -l 100%free /dev/volume/root
      Extending logical volume root to 194,00 GiB
      Logical volume root successfully resized


    erscheint bei mir:

    Code
    :~# lvresize -l 100%free /dev/volume/root
      WARNING: Reducing active logical volume to 38.00 GiB
      THIS MAY DESTROY YOUR DATA (filesystem etc.)


    ich hoffe ich habe mir jetzt nicht das Dateisystem zerschossen ?(

    hab noch mal eine (Anfänger-) Frage zu SSL für LEMP auf Debian Squeeze.
    vergl. hier: https://forum.netcup.de/admini…lemp-stack-ssl-debian-6-0 -> Punkt 5.)


    ist es möglich, mehrere Domains und Subdomains mit SSL auszurüsten wenn man nur eine einzige Server-IP hat ?
    z.B. mit einem Wildcard-Produkt, wie dem hier "StartSSL™ Verified"
    (wo Leupi schon "StartSSL" in seinem o.g. Tuorial (in Punkt 5.) erwähnt hat...)


    Ich dachte bisher immer: ein SSL-Zertifikat pro Domain (bzw. sogar pro vhost) und IP
    -> also eine IP -> nur ein SSL-Zertifikat (für nur eine Domain/vhost) möglich ? (so war's wohl früher oder ?)


    auch im ISPConfig3-Handbuch findet sich an mehreren Stellen der schlichte Hinweis:
    "Please note that you can have only one SSL web site per IP address"
    (mit "web site" ist dort ein vhost gemeint)


    einige google- Ergebnisse machen mir jedoch Hoffnung, dass es geht:
    --> FAQ > Sonstiges > SSL-Zertifikate > Mehrere Zertifika...
    --> Mehrere SSL Zertifikate auf einem Server / einer IP | Udo Telaar – Webdevelopment


    Wer hat Erfahrung darin ?
    (Wie geht es auf Squeeze/ngingx ?)

    OK,
    ich erhalte:

    Code
    :~# dmesg | grep kvm-clock
    [    0.000000] kvm-clock: cpu 0, msr 0:151a701, boot clock
    [    0.000000] kvm-clock: cpu 0, msr 0:1815701, primary cpu clock
    [    0.028009] kvm-clock: cpu 1, msr 0:1915701, secondary cpu clock
    [    0.076082] Switching to clocksource kvm-clock


    Code
    cat /sys/devices/system/clocksource/clocksource0/current_clocksource
    kvm-clock


    dann besser kein NTP verwenden, oder ?

    kurze Frage:
    hat man beim KVM Server eigentlich seine "eigene Uhrzeit" (RTC)
    kann/sollte/muss man also z.B. durch Inst. mit "apt-get install ntp ntpdate" mit einem NTP Server synchronisieren ?
    beim Linux V-Server war das ja nicht möglich.

    gutes tutorial,
    ich probiere es gerade aus (mit gleichzeitiger Installation von ispconfig 3)


    Es gibt zusätzlich die Möglichkeit, dem FPM anzugeben, wieviel RAM/prozesse er nutzen darf. Dies kann die Performance stark verbessern, sprengt jedoch den Rahmen dieses Howto´s.
    Interessierte können sich einmal diese Werte ansehen:

    Code
    pm.max_children = 9
    pm.start_servers = 3
    pm.min_spare_servers = 2
    pm.max_spare_servers = 4
    pm.max_requests = 200


    diese Einträge gehören dann in die jeweiligen "/etc/php5/fpm/pool.d/*.conf" -Dateien ?
    (oder wohin ?)


    ----------



    hierzu eine Syntaxfrage:
    die "listen" Einträge in den
    "/etc/php5/fpm/pool.d/*.conf" -Dateien (die sind doch gemeint oder ?)
    sind bei mir in folgender Sytax angegeben
    "listen = /var/lib/php5-fpm/apps.sock"
    "listen = /var/lib/php5-fpm/ispconfig.sock"
    müsste es dann nicht auch heissen
    "listen = /var/lib/php5-fpm/www.sock"
    (anstatt wie oben angegeben "listen = /var/run/php5-fpm.www.sock"


    entsprechend dann in den vhosts
    fastcgi_pass unix:/var/lib/php5-fpm/www.sock;
    ??


    ----------------------


    genereller Tipp:
    auch hier mal schauen:
    --> HowtoForge Linux Tutorials » Konfigurierung Ihres LEMP Systems (Linux, nginx, MySQL, PHP-FPM) für maximale Leistung

    habe ein ähnliches Problem:
    (KVM Neptun 80GB)


    im Tutorial:

    Code
    root@v123:~# lvextend -l 100%FREE /dev/volume/root 
      Extending logical volume root to 194,00 GiB
      Logical volume root successfully resized


    in echt:

    Code
    root@v123:~#  lvextend -l 100%FREE /dev/volume/root
      New size given (9728 extents) not larger than existing size (10053 extents)
      Run `lvextend --help' for more information.


    und: ----------------


    im Tutorial

    Code
    root@v123:~# resize2fs -p /dev/volume/root 
    resize2fs 1.41.12 (17-May-2010)
    Die Grösse des Dateisystems auf /dev/volume/root wird auf 50855936 (4k) Blöcke geändert.
    
    
    
    
    Start von Durchgang 1 (max = 1237)
    Vergrößere die Inode-TabelleXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXX
    Das Dateisystem auf /dev/volume/root ist nun 50855936 Blöcke groß.


    in echt:

    Code
    root@v123:~# resize2fs -p /dev/volume/root
    resize2fs 1.41.12 (17-May-2010)
    The filesystem is already 10294272 blocks long.  Nothing to do!


    ----------------


    Die Ausgabe des verfügbaren Speicherplatzes
    sieht dementsprechend nachher genau so aus wie vorher:

    Code
    root@blah:~# df -h
    Filesystem            Size  Used Avail Use% Mounted on
    /dev/mapper/volume-root
                           39G  872M   36G   3% /
    tmpfs                1007M     0 1007M   0% /lib/init/rw
    udev                 1002M  116K 1001M   1% /dev
    tmpfs                1007M     0 1007M   0% /dev/shm
    /dev/vda1             248M   26M  210M  11% /boot


    wie komme ich an meine 80 GB ? :huh:

    bei KVM Servern habe ich ja jetzt keinen externen Platz mehr für die Snapshots,
    und wenn man ein neues Image probieren möchte sind die bisher angelegten Snapshots weg.


    Wo liegen denn diese Snapshots (doch nicht im Dateisystem meines Servers oder ?)
    Komm ich da irgendwie ran und kann diese vorher sichern oder so ?