Beiträge von Netsurfer

    Hallo Felix!


    Zunächst einmal besten Dank für das bisherige Feedback!
    Es freut mich auch, dass meine "Kritik" so verstanden wurde, wie sie gemeint war, nämlich als der Wunsch nach einer Erweiterung des Produktportfolios. :)



    Ich hatte sehr wohl auf diese Option hingewiesen und diese auch entsprechend kommentiert ;) :




    Wir werden demnächst für die vServer Zusatzfeatures anbieten. Dabei werden unter anderem die NFS-Volumes sein. Zudem arbeiten wir an einer Lösung das Snapshots extern gespeichert werden können. In dem Zusammenhang werden wir die Preise für Backupspace senken.


    Na das klingt doch alles sehr vielversprechend! :)


    Ich bin zuwenig "Linux Kenner" und habe quasi auch keine Ahnung von der Virtualisierung per KVM und allem, was da hinten dranhängt. Von daher kann ich nur äußern, was ich mir als Kunde am liebsten wünschen würde:
    Ich sehe die "Zuständigkeit" für entsprechende Backups immer nach dem "Verursacherprinzip". ;)
    Soll heißen, wenn ich bspw. durch irgendeine "Unachtsamkeit" die Daten meiner Kunden beschädige/ lösche, dann sollte ich über möglichst aktuelle Backups selbiger verfügen, um diese wieder herstellen zu können.
    Wenn jetzt aber, bspw. durch einen Hardwaredefekt, die Daten flöten gehen, dann sollte eben auch der Eigentümer der Hardware in der Lage sein, alles wieder herstellen zu können.
    Die "optimalste" Form, dieses zu gewährleisten, wäre in meinen Augen ein automatischer täglicher Snapshot, der auf einem anderen physikalischen Datenträger gespeichert wird.
    Für eine solche zusätzliche Option, wäre ich ja auch gerne bereit zusätzlich zu zahlen.


    Etwas weniger "komfortabel", aber immer noch besser als die bisherige Situation, ist die Variante ".. einer Lösung das Snapshots extern gespeichert werden können.".
    Ich nehme mal an, dass aktuell die Snapshots (übers VCP) in der Art ablaufen, dass ein (zusätzliches) Volume gemountet wird, auf dem der Snapshot (inkrementell) gespeichert wird und dieses anschließend wieder unmounted wird.
    An dieser Stelle möchte ich auch nochmal auf den Umstand hinweisen, dass lediglich bei Sicherungen, die direkt "vor Ort" vorgenommen werden, kein externer Traffic anfällt!


    Was den reinen Backupspace und seine Kosten angeht, so würde ich bspw. begrüßen, wenn Kunden, die einen vServer haben, einen gleichgroßen Backupspace zum "Vorzugspreis" hinzubuchen könnten.


    Auch den Vorschlag von julian-w bezüglich reiner "Backup vServer" finde ich sehr interessant. So ein vServer mit einem "Debian Squeeze 64 Bit Minimal System, lediglich SSH ist vorinstalliert." Image wäre auch eine Lösung (wenn er auf einem anderen Node läuft). Ließe sich imho ja auch leicht bewerkstelligen, dass er nur als solcher verwendet werden kann, bspw. indem der Zugriff nur über die entsprechende IP des regulären vServers möglich ist.
    Solch eine Variante würde dann aber z.B. die Verwendung von rdiff-backup ermöglichen.


    Noch ein Wort zur Preiskalkulation: Ich würde mir halt wünschen, dass es für vServer-Kunden halt andere Preise für reinen Backupspace geben würde, als für Nicht-Kunden, bzw. Online-Speicherplatz (Cloud Space). Denn das sind imho zwei verschiedene Paar Schuhe ...! ;)


    Also nochmals besten Dank, dass ihr über entsprechende neue Lösungen & Angebote nachdenkt.
    Gerne lasse ich mich überraschen, was dabei herauskommt.


    In diesem Sinne, auf ein langes und für alle Seiten zufriedenstellendes Vertragsverhältnis!


    Gruß
    Gunther

    Habe 2 Scripts. Einmal eins, welches mit dd läuft, damit spreche ich komplette Partitionen an (weekly). Und eins mit tar, womit ich bestimmte Bereiche sichere wie z.B. /var/www/ oder mysql dump (täglich).


    Ob du mir die wohl netterweise mal per Mail schicken würdest?


    Zitat

    Open-File?!


    Ja, was ist mit geöffneten Files während du dein Backup erstellst? Die führen doch dann u.U. dazu, dass dein Backup "unbrauchbar" ist.
    Soweit ich das verstanden habe, besteht ja darin einer der Vorteile von Snapshots, da diese den jeweiligen Diensten + Programmen quasi vorher mitteilen, alle geöffneten Files zu schließen und erst dann das Backup davon erstellen.

    Mit dd ein komprimiertes image erstellen, auf ein externen server hochladen, image wieder löschen um platz zu sparen. Und das alles in ein bash-script verpackt. Via crontab eintrag halt automatisiert. Also so schwer ist das ja nicht. Und free space gibt es ja schon für lau. (Ich nutz mein NAS für Backups, da hab ich genug sSeicher und ne extra Platte für jegliche Backups).


    Also erstellst du per dd ein komplettes Image deiner Festplatte!?
    Oder sicherst du nur bestimmte Verzeichnisse?


    Mir geht es u.a. um die "Open-File" Problematik.


    Ich bin nicht unbedingt der "Linux-Kenner", von daher würde mich mal interessieren, ob man nicht auch einen LVM Snapshot erstellen kann, den man anschließend nach extern wegsichern kann?


    PS: Externen Backup-Space habe ich - das ist nicht das Thema.

    Hi!


    dd nutzen... dateien herunterladen/uploaden und selbst dafür sorgen, die backups zu verstauen. Ist meist günstiger.


    Das mache ich auch bereits für meine Kundendaten (/var, MySQL Dumps).
    Aber wie sicherst du denn bspw. dein System?
    Der Punkt ist doch der, dass die beste Backup-Möglichkeit immer derjenige hat, der "von außen" auf die Hardware zugreifen kann. Und das ist nun mal netcup. Denn bei allen anderen Backup-Methoden läuft ja systembedingt schon das Backup-Programm auf dem Server ...!


    Zitat

    und mit cronjob und co. kann man sich da ein funktionierendes backup system erstellen.


    Automatisierung per Cron ist klar, ändert aber ja nichts an der eigentlichen "Problematik".
    Erzähl' doch mal, wie deine Backup-Strategie aussieht - danke!


    Gruß
    Gunther

    Ja, das bestätigt ja meine Aussage, dass es de facto aktuell von Hause aus keinerlei Backup Möglichkeit (seitens Netcup) gibt, da Snapshots eben nicht als solche anzusehen, bzw. zu gebrauchen sind!

    Hallo zusammen!


    Ich muss jetzt auch mal einen Kommentar zum leidigen Thema Backups und Snapshots (KVM Server) loswerden.
    Vorwegschicken möchte ich, dass ich ansonsten rundum zufrieden bin mit meinem KVM Server hier.


    Aktuell gestaltet sich die Lage ja so, dass Netcup selber keinerlei Backups erstellt, bzw. vorhält.
    Daraus ergibt sich eigntlich für jeden Server-Kunden die zwingende Notwendigkeit, selber für entsprechende Backups zu sorgen. Soweit so gut. Weniger gut ist dann allerdings schon, dass Netcup hier in meinen Augen bis jetzt keine "vernünftigen" Möglichkeiten bietet.


    Ich habe mal ein bisschen hier im Forum gestöbert und u.a. folgende Aussagen gefunden:


    Zitat von [netcup] Felix


    Die Backups werden bei KVM-Servern inkrementell auf der virtuellen Disk des KVM-Servers gespeichert. Dieses ist eine hauseigene Funktion die KVM mitbringt. Dieses ist folglich ein ganz übliches Vorgehen. Andere Virtualisierungslösungen wie z.B. VM-Ware handhaben dieses genau so.


    Der Vorteil des inkrementellen Speicherns ist, dass nur wirklich geänderte Daten neu gespeichert werden und damit Speicherplatz belegen. Der Speicherplatz reduziert sich dadurch nicht direkt durch die Anzahl der Backups, sondern durch die Menge der geänderten Daten. Auch können so Snapshots im Betrieb schnell erstellt werden. Das Rückspielen geht hierbei auch sehr einfach und zügig.


    Zitat von [netcup] Felix


    Andere Varianten des Backupspaces sind aktuell nicht in Planung. Der Backupspace wird über zwei in sich gespiegelte Storage-Cluster bereitgestellt. Auch ist er örtlich von den anderen produktiven Systemen getrennt. Daher kostet hier der Preis etwas mehr wie bei einem Webhosting-Paket.


    Zitat von [netcup] Felix


    Die Snapshots werden direkt über die virtuelle Festplatte der KVM realisiert. Wenn alle Daten auf dieser belegt sind, können keine Snapshots mehr erstellt werden.


    Zitat von [netcup] Felix


    Wenn es richtig einfach und kostengünstig sein soll, empfehle ich einen zweiten vServer zu mieten. Den Support dabei bitte darauf hinweisen, dass dieser auf einem anderen Node liegen soll.


    Die Möglichkeit über das VCP Snapshots zu erstellen ist IMHO also für "echte" Backups absolut ungeeignet.
    Denn erstens kann man nur inkrementelle Backups erstellen, wodurch der Speicherplatzbedarf ja automatisch immer weiter ansteigt, und zweitens hat man keinerlei Möglichkeit, diese Backups nach extern zu sichern, da man keinen Zugriff darauf hat.
    Desweiteren gibt es auch keine Möglichkeit überhaupt zu sehen, wie viel Speicherplatz von den Snapshots belegt wird. Und dass diese "direkt über die virtuelle Festplatte der KVM realisiert" werden, macht für mich auch wenig Sinn, denn in erster Linie soll so ein Backup ja für den Fall von Hardwaredefekten da sein.


    Alles in allem sind die Snapshots also für mich in der Praxis unbrauchbar.


    Und wie sieht es bezüglich der Alternativen aus?


    Jetzt mal ganz im Ernst liebe Leute - der Vorschlag einen zweiten vServer zu mieten, nur um den rein für Backups zu nutzen, kann doch nicht euer Ernst sein!?
    Das ist doch wie mit Kanonen auf Spatzen zu schießen ...!


    Zumal wenn man mal davon ausgeht, dass ein Backup-Space mind. dieselbe Größe wie der zu sichernde Server haben sollte (ja auch wenn die Backups gepackt sind, wenn man verschiedene Backups für eine gewisse Zeit vorhalten möchte).


    Bleibt eigentlich nur die für diesen Zweck ja auch gedachte und übliche Option des FTP-Backupspaces.
    Wenn ich aber von dem benötigten Platzbedarf (siehe oben) ausgehe, dann muss ich für einen vServer Uranus (120 GB) ja mindestens 2x den FTP-Backupspace buchen, was dann Kosten in Höhe von € 14,- pro Monat bedeutet.
    Wo bleibt da die Relation, wenn der Server € 14,99 pro Monat kostet!?


    Mal abgesehen davon, dass ich wohl kaum darauf hinweisen muss, dass der Preis im Verhältnis zu den "großen & bekannten" Mitbewerbern für Cloudspeicher alles andere als "konkurrenzfähig" ist.


    Da zählt für mich auch nicht das Argument:"Der Backupspace wird über zwei in sich gespiegelte Storage-Cluster bereitgestellt. Auch ist er örtlich von den anderen produktiven Systemen getrennt. Daher kostet hier der Preis etwas mehr wie bei einem Webhosting-Paket.", denn das sollte ja wohl selbstverständlich sein (was eben u.a. genau bei den Snapshots nicht gegeben ist).
    Man könnte das auch so interpretieren:"Ihre Daten auf einem Backupspace sind gut gesichert - im Gegensatz zu denen auf ihrem Produktivsystem!".


    Lange Rede - kurzer Sinn:
    Ich würde es sehr begrüßen, wenn sich die Netcup Geschäftsleitung doch nochmal Gedanken darüber machen würde, ob es nicht eine für den Kunden "einfache & sichere" Möglichkeit (zubuchbare Option) für Backups ihrer vServer geben würde.


    Bei den durchaus sehr günstigen Preisen für die vServer verlangt ja auch keiner, dass diese Option inklusive sein soll. Aber ein Preis in Höhe von 1/3 des jeweiligen vServer Preises würde ich als "angemessen" betrachten für ein tägliches Full-Backup.


    Man darf dabei ja auch bitte nicht vergessen, dass nur bei Backups, die Netcup selber für seine Kunden durchführt, kein (externer) Traffic anfällt!


    In diesem Sinne allen "Frohe Ostern!"


    Gruß
    Gunther

    Hallo zusammen,


    ich habe hier einen KVM von netcup auf dem Debian Squeeze (und Froxlor) installiert sind.
    Auch habe ich (gemäß der Anleitung im Wiki) die Partitionierung der Festplatte geändert.


    Nun würde ich gerne noch Quota installieren. Allerdings habe ich damit noch nie etwas selber zu tun gehabt.


    Von daher habe ich im Vorfeld einige Fragen und würde mich sehr freuen, wenn mir hier jemand netterweise Auskunft geben könnte!


    Vom Prinzip her sollte es ja so ablaufen:

    • Quota installieren
      apt-get install quota
    • Quota einrichten
      mount -o remount ro /partition
      quotaoff -av
      quotacheck -ugvm /partition
      quotaon -av
      mount -o remount rw /partition


    Anschließend den Server rebooten!


    Sehe ich das richtig, dass ich '/dev/volume/root' als Partition angeben muss?
    Ich bin nur etwas leicht "irritiert", weil disk free ja '/dev/mapper/volume-root' anzeigt!?


    Worauf sollte ich unbedingt achten?
    Was sollte/ muss ich sonst noch machen, bzw. vermeiden?


    Sind meine Daten "sicher", wenn ich vorher einen Snapshot erstelle?


    Für eure freundliche Unterstützung meinen besten Dank im Voraus!


    Gruß
    Gunther

    Hallo,


    für alle, die evt. mal über dasselbe Problem bei Ihrer Installation "stolpern" sollte, hier der Grund und eine mögliche Lösung für das im Ausgangsposting beschriebene "Phänomen":


    Der Grund, bzw. Auslöser für die Einträge im Mail-Error-Log war ein Cronjob, den ich in der crontab eingetragen hatte und der unter dem User 'web10' läuft.
    Dieser Cronjob produzierte einen Fehler, über den mich Cron Daemon gerne jedes Mal per Mail informieren wollte. Nun "bastelt" sich der Daemon aber die E-Mail Adresse nach dem Schema: '<user>@<mailname, bzw. myhostname>' zusammen.


    Diese Adresse ist Froxlor natürlich gänzlich unbekannt, weshalb sich auch keine "passenden" Einträge in der DB 'froxlor' finden.
    Somit wissen Postfix und Dovecot natürlich nicht wohin mit der Mail.


    Lösung:
    Merke - für jeden User in crontab einen entsprechenden Alias in /etc/aliases anlegen!


    Konkret in meinem Fall habe ich also in /etc/aliases den folgenden Eintrag ergänzt:
    web10: root (<= oder ein anderer Empfänger, bzw. direkt eine E-Mail Adresse)


    Wichtig - nach jeder Änderung in der aliases Datei über die Shell "newaliases" ausführen und Postfix und Dovecot vorsichtshalber auch gleich noch restarten (/etc/init.d/postfix|dovecot restart).


    Jetzt sollten sowohl die Mails vom Cron Daemon an der gewünschten Adresse ankommen, als auch die Einträge im Error-Log verschwunden sein.


    Gruß
    Gunther

    ich weiß leider nicht, wie froxlor arbeitet, da ich es nicht kenne und generell keine webinterfaces nutze.


    Froxlor gibt dir nach Auswahl des entsprechenden MTAs und Mailservers die benötigten Konfigurationen für die entsprechenden Dateien (main.cf usw.) vor.
    Ansonsten werden die E-Mail Adressen und Konten in der Froxlor MySQL DB gespeichert und Postfix + Dovecot so konfiguriert, dass sie die erforderlichen Infos aus dieser DB holen.


    Zitat

    Jedoch scheint dovecot das mail verzeichnis des users nicht finden zu können. Wieso das nur bei einem user passiert, hängt vielleicht mit froxlor zusammen.


    Ja, nur ist völlig unklar warum nicht!?
    Ich habe übrigens das Angebot von netcup zur Migration auf einen KVM Server genutzt. Beschriebenes Problem tritt auf beiden Servern auf, ist also reproduzierbar, bzw. tritt immer auf.


    Zitat

    Gibt es dort keine erweiterte mail-server einstellung? Oder wie sieht es mit der db aus? sind alle einträge für den user web10 drin und korrekt?


    Ja alle korrekt vorhanden. Mails senden & empfangen klappt ja auch (trotz Fehlermeldung).
    Das ist ja auch der Grund, warum ich die ganze Sache nicht wirklich verstehe ....!?

    Hi,


    erstmal vielen Dank für deine Antwort.
    Bevor ich die jetzt umsetze, noch einige kurze Rückfragen.


    Aktuell fehlen beide Einträge in meinen Conf-Dateien. Allerdings werden die Mailverzeichnisse ja über die MySQL Froxlor DB verwaltet.
    Es funktioniert ja auch alles, nur dass halt bei diesem einen Kunden ständig die Fehlermeldungen auflaufen, obwohl bei der Einrichtung (mehrmals wiederholt) die entsprechenden Mail-Ordner (unter /var/customers/mail/web10/) für alle Konten des Kunden korrekt angelegt werden.


    Was ich eben nicht verstehe ist, warum das nur bei dem Kunden 'web10' passiert und nicht bei einem der 15 anderen (web1 - web16) Kunden!?


    Zerschieße ich mir nicht meine restliche Konfiguration, wenn ich die beiden Zeilen ergänze!?


    Vielen Dank für deine Hilfe!


    Gruß
    Gunther

    Hallo zusammen!


    Ich habe ein Problem, bei dem ich nicht weiß, wie ich es abgestellt bekomme, da ich gar keine Idee (mehr) habe, wo ich (noch) suchen soll, bzw. was die Ursache dafür ist.
    Deshalb hoffe ich, dass mir ggf. jemand von euch weiterhelfen kann.


    Ich habe einen vServer auf dem das Standard Image mit Debian Squeeze und Froxlor installiert ist.
    Für die Mailgeschichte verwende ich Postfix + Dovecot (per SSL/ SASL Auth).


    Soweit läuft und funktioniert auch alles bestens. Mail Empfang + Versand funktionieren für alle Kunden problemlos, oder zumindest fast problemlos.
    Denn mein mail.err Log läuft permanent mit derselben Fehlermeldung voll:

    Zitat

    dovecot: deliver(web10): mail_location not set and autodetection failed: Mail storage autodetection failed with home=/var/customers/webs/web10/
    dovecot: deliver(web10): Fatal: Namespace initialization failed


    Der Kunde 'web10' ist genauso angelegt/ konfiguriert wie jeder der 16 anderen Kunden auch.
    Die Mails für diesen Kunden kommen auch an und der Versand funktioniert ebenfalls.


    Von daher ist mir die Fehlermeldung ein ziemliches Rätsel.
    Ich habe jetzt noch die Vermutung, dass das Problem irgendetwas mit 'web1' vs 'web10' zu tun hat.


    Hat jemand von euch 20 oder mehr Kunden auf einem ähnlichen System? Denn ich befürchte, dass sich das dann mit 'web2' vs 'web20' wiederholt ...!


    Kennt ihr das Problem, bzw. könnt das auf eurem System nachvollziehen?
    Weiß jemand, wie ich das abstellen/ beseitigen kann?


    Wenn noch weitere Informationen von Nöten sind, liefere ich die natürlich jederzeit gerne nach.


    Vielen Dank für eure Hilfe im Voraus!


    Gruß
    Gunther

    Hi!


    Genau das hatte ich mir gedacht.


    Nein, du hast auf eine fehlende Berechtigung der Socket Datei getippt. Die werden aber dann gar nicht erst angelegt!

    Zitat

    Allerdings sollte man, wenn man Wert auf maximale Performance legt, die Methode mit der sock datei wählen.


    Dann verrate doch mal, wie man dann vorgehen muss. Und natürlich lege ich Wert auf Performance, ansonsten würde ich ja nicht so eine Konfiguration mit Nginx und FPM gewählt haben.
    Und im übrigen verwende ich sehr wohl Sockets. Die entsprechenden Dateien liegen in '/var/run/nginx' ...

    Zitat

    Das Verzeichnis in dem diese angelegt werden soll benötigt dann allerdings Schreibrechte für die Gruppe www-data (Also wenn man von der standard Config ausgeht)


    und Gruppe und Eigentümer des Verzeichnisses ist jeweils 'www-data'.


    Also falls du noch eine Idee hast, was ich an der Konfiguration "verbessern" kann, bin ich ganz Ohr.


    Gruß
    Gunther

    Hallo!


    So, ich habe jetzt "des Rätsels Lösung" gefunden und möchte zukünftigen Besuchern diese nicht vorenthalten.


    Bei der Konfiguration von Nginx in Froxlor muss man u.a. eine Datei 'php-fcgi' in /etc/init.d/ anlegen.
    In dieser befindet sich in der ersten Zeile die Anweisung

    PHP
    BIND="127.0.0.1:8888"


    Die Port-Nr. kann man auch auf z.B. 9000 ändern.


    Wichtig ist dann, wenn man php5-fpm installiert hat, dass man in der Datei '/etc/nginx/sites-available/default'
    nur die Zeile 'fastcgi_pass 127.0.0.1:9000;' aktiviert! Wobei die Port-Nr. identisch mit der aus der Datei 'php-fcgi' sein muss.


    Wenn man hier "irrtümlich" die Zeile mit dem UNIX Socket aktiviert, dann funktioniert das Ganze nicht und man bekommt einen 502 Bad Gateway Error. Im '/var/log/nginx/error.log' findet sich dann ein Eintrag à la:

    Zitat

    [crit] 3250#0: *1 connect() to unix:/var/run/nginx/froxlor.panel-[FQDN Hostname]-php-fpm.socket failed (2: No such file or directory) while connecting to upstream


    Ich hoffe, das hilft dem einen oder anderen.


    Dank & Gruß
    Gunther

    Hi w0bble!


    Da könntest du Recht haben ...!
    Im Log steht:

    Zitat

    [crit] 2989#0: *1 connect() to unix:/var/run/nginx/froxlor.panel-[FQDN]-php-fpm.socket failed (2: No such file or directory) while connecting to upstream, client:


    Ich hatte die Konstellation mit viel "Gefrickel" schon mal am Laufen.
    Habe es jetzt aber Schritt für Schritt nochmal neu gemacht, um die Schritte auch zu protokollieren.
    Und jetzt kommt erstmal wieder der Bad Gateway Error.


    Update:
    Das Error-Log spuckt jetzt folgenden Fehler aus:

    Zitat

    [error] 3213#0: *13 connect() failed (111: Connection refused) while connecting to upstream, client:

    Hallo,


    gibt es hier irgendjemanden unter euch, der unter Froxlor nginx als Webserver mit PHP5-FPM laufen hat, bzw. erfolgreich eingerichtet hat?
    Wenn ja, wäre ich sehr dankbar für ein paar Tipps. Grundsätzlich habe ich keine Probleme mit der Installation, allerdings scheitere ich bislang wohl vermutlich an den fastcgi-Einstellungen.


    Jedenfalls erhalte ich immer nur einen '502 Bad Gateway' Error.
    Nun scheint es ja so zu sein, dass Froxlor ein paar kleinere Fehlerchen bei der PHP5-FPM Konfiguration hat. Und die Nicht-Erreichbarkeit des Froxlor Forums macht die Sache nicht einfacher.


    Wäre wirklich sehr nett, wenn mir jemand helfen könnte - danke!


    Gruß
    Gunther

    Hi!

    Schmutzig, aber wirkt: SymLink - Debian Wiki


    Hmmm ...., das würde aber bedeuten, den Pfad auf /var/customers/tmp/[kunde] stehen zu lassen und in jedem Kundenverzeichnis (händisch) einen entsprechenden Symlink zu setzen, oder nicht?


    Ich frage mich, wo Froxlor den Temp-Pfad eigentlich her hat?
    In der php.ini wird er per Variable {TMP_DIR} gesetzt und ansonsten hab' ich nur in der 'froxlor' DB in der Tabelle 'panel_settings' entsprechende Einträge für 'mod_fcgid_tmpdir' und 'tmpdir' gefunden. Letzterer scheint mir ja genau der Richtige zu sein. Leider fehlt eine entsprechende Konfigurationsmöglichkeit im Panel. Also müsste man ihn direkt in der DB anpassen. Kann das jemand bestätigen?


    Dank und Gruß
    Gunther

    Hallo zusammen!


    Irgendwie nehmen die Fragen kein Ende ..., aber vielleicht kann mir ja jemand helfen, bzw. mal verraten, wie er die Sache gemacht hat?


    Und zwar folgende Situation:
    Ich habe einen KVM Server und 2 IPv4-Adressen (IP-1 und IP-2)
    Nun soll die IP-1 Adresse die Standard-IP für Kunden werden und die IP-2 ist quasi meine "Verwaltungs-Adresse" auf der auch der Mailserver lauscht.
    Beide haben jeweils ein SSL-Zertifikat.


    Über das CCP kann ich ja jetzt zu den beiden IP-Adressen jeweils den rDNS Eintrag setzen.
    Soweit so gut ...!


    Mein Problem besteht nun darin, was ich als Hostname in /etc/hostname und als Mailname in /etc/mailname setze?


    In der /etc/hosts Datei kann ich ja problemlos beide IP-Adressen samt zugehörigen Servernamen eintragen, aber als hostname ja nur einen.


    Am Ende soll folgende Konstellation herauskommen:
    IP-1: server1.example.com
    IP-2: mail.example.com


    BTW: Weiß jemand von euch, ob es mit Froxlor ein Problem gibt, wenn ich in der Postfix main.cf myhostname = mail.example.com setze, und später auch ein Mailkonto mit Namen "mail@example.com" verwenden will?


    Für jegliche Hilfe oder Tipp meinen besten Dank im Voraus!


    Gruß
    Gunther

    Hallo!


    Im Zuge der Migration meines bisherigen vServers auf einen KVM, wollte ich gleich noch diverse Änderungen vornehmen.


    So beabsichtige ich u.a. den apache2-mpm-worker anstelle des prefork zu verwenden.
    Und auch php-fcgi möchte ich durch php5-fpm ersetzen.


    Da ich nicht jeden Tag einen (oder gar mehrere) Server aufsetze, wollte ich mal nachhören, ob mir jemand hier eine "bestmögliche" Reihenfolge für die nötigen Installationen + Konfigurationen nennen kann?


    Ausgangspunkt ist ein frisch installiertes Debian Squeeze + Froxlor Image.


    Das fängt ja schon damit an, was macht man sinnvollerweise zuerst - Einstellungen (welche?) in Froxlor oder erst neue/ geänderte Pakete installieren?


    Bin für jeden Tipp (der mir ggf. eine zusätzliche Runde bei der Installation spart) dankbar!


    Gruß
    Gunther

    Hallo!


    Kurze Frage: Wie ändere ich in Froxlor (oder anderswo) denn den Standardpfad für das TMP Verzeichnis?


    Alle anderen Pfadangaben habe ich gefunden, nur die für das TMP Verzeichnis kann ich nicht finden.


    Hintergrund ist eigentlich nur der, dass ich anstatt /var/customers/... /var/kunden/... verwenden möchte.


    Dank & Gruß
    Gunther