Beiträge von peng

    Ich betreibe ein ähnliches Setup. Ich trenne auch zwischen Sorage und Cloud- und Datenbankserver. Da bei mir relativ viele User hleichzeitig arbeiten, finde ich das es so ein stabileres Setup ist und ich kann jederzeit einen weiteren Nextcloud Server hinzufügen.

    Er möchte auf dem Storage-Server die Daten ablegen.

    Aber die HDDs kann er ja auch direkt dem "Hauptserver" hinzubuchen meine ich...

    Zitat

    %HOSTER% erhebt bei Mining oder anderen Diensten welche die CPU Auslastung permanent bei 100% halten eine Strafgebühr von 50 Euro pro Vorfall, dies gilt auch für mehrfachen Abuse Missbrauch Spamm Mails, etc.

    Insbesondere den fett markierten Teil finde ich heikel.


    Mining ok... Aber "oder andere Dienste"...

    Ich hatte hier eine zeitlang einen Chef-Server auf einem kleinen VPS. Die Auslastung war zwar nicht die ganze Zeit bei 100% aber immer sehr sehr hoch. Auf Dauer machte es keinen Spaß insb. wenn mehrere Nodes hinzukamen. Mit den AGB hätte ich bei dem Hoster aber Angst ;)

    maddin123


    Es sind Netcups Server und daher Netcups Spielregeln. Es zwingt Dich niemand (neue) Server bei Netcup zu bestellen ;)



    Server die aber vor der AGB-Änderungen bestellt wurden und nun aufgrund von Mining gesperrt werden finde ich nicht i.O. - da bin ich bei Dir.

    Hallo zusammen,


    Guten Morgen,



    die neue Version unserer AGB gilt seit Dezember 2017 für Neukunden oder neue Bestellungen.

    [...]

    Hallo,


    mir wurden alle Server wegen Mining gesperrt (auch die alten). Sobald jemand einen neuen Server mietet, gelten die neuen AGB auch für Server, die vor 12/2017 gemietet wurden!


    [...]


    Das ist doch ein Wiederspruch zur Aussage von [netcup] Felix oder sehe ich das falsch?


    Ich betreibe selbst kein Mining auf den Servern, es macht mich aber nachdenklich, wenn "einfach so" gesperrt wird.


    Habe zwei (Root-)Server. Nr. 1 ist Mitte 2017 und Nr. 2 ist November 2017. Zu dem Zeitpunkt gab es in den AGB das entsprechende Verbot nicht.

    Nach Aussage von [netcup] Felix (Zitat siehe oben) dürfte ich demnach keine Probleme mit dem Mining haben.


    Wenn ich heute einen neuen Rootserver bestellen würde, akzeptiere ich die neuen AGB welche seit Dezember 2017 gültig sind - ergo Mining verboten - voll einverstanden, da gibt es nichts zu diskutieren. Ebenso dürfte ich auf meinen alten Servern TOR nicht nutzen, weil es damals ausdrücklich verboten war (einverstanden). Bei neuen Server-Bestellungen hingegen ist es erlaubt - ok.


    Aber warum wurden hier die Server von maddin123 gespert wenn sie vor dem Dezember 2017 bestellt wurden ?


    maddin123: Nur zur Sicherheit... Es waren Root- oder vServer?


    Viele Grüße

    Hallo,


    danke für Deine Antwort.


    Bei mir hat die Bridge eine eigene IP.

    Ebenfalls mein interface vom Host (ens33).


    Hier ein Auszug von ip addr show (Achtung, es handelt sich um eine lokale Test-vm, daher habe ich keine "public ip" auf ens33)



    Nun habe ich aber folgende Beobachtung gemacht:


    Mit oifname "lxbr3" masquerade

    Code
    table ip nat {
            chain postrouting {
                    type nat hook postrouting priority 100; policy drop;
                    oifname "lxbr3" masquerade
                    counter packets 0 bytes 0
                    log
            }
    }

    kriege ich keinen ping mehr vom Host-System raus.

    Das bedeutet, dass die POSTROUTING-Chain aufgerufen wird. Ein Blick in die syslog bestätigt dies nun: Es werden Log-Einträge erstellt...


    Eventuell ist es also nur ein Bug in nftables... hmm...

    Guten Abend zusammen,


    ich habe Debian 9 im Einsatz mit nftables und einem lxc container der über NAT und freigegebene Ports von Außen erreichbar ist.


    Vorweg: Alles funktioniert einwandfrei.


    Aber: Meine POSTROUTING chain wird anscheinend nie (!) aufgerufen.


    Mein ruleset:



    Im Netz habe ich die folgende Grafik gefunden (Quelle: https://www.karlrupp.net/en/computer/nat_tutorial)


    nat-chains.gifggg


    "Just before our forwarded packet leaves the machine it passes the POSTROUTING chain and then leaves through the network interface. For locally generated packets there is a small difference: Instead of passing through the PREROUTING chain it passes the OUTPUT chain and then moves on to the POSTROUTING chain."


    Wenn ich es doch nun richtig verstehe heißt es doch, egal ob ich das Packet weiterleite oder "selber nutze", es geht in jedem Fall in die POSTROUTING chain.


    Kann mir jemand von Euch sagen was ich falsch mache? Denn egal wie lange ich meine Maschine laufen lasse, über die Postrouting chain werden keine Pakete gezählt.

    Ebenfalls erscheint nichts im syslog (log-Befehl in der postrouting-chain).

    Getestet habe ich es mit einem Ping auf 8.8.8.8 sowohl vom Host aus, als auch aus meinem lxc container.


    Besten Dank.

    Hallo Bone2Analyze,


    ich habe hier Confluence im Produktivbetrieb. Allerdings ist dies ein RS 1000 SSD G7 SE (2 Kerne, 6 GB, SSD).

    Es ist eine recht kleine Instanz mit nur 3 Usern.


    Dennoch glaube ich, dass es bei Dir irgendwo Probleme mit einr zu geringen Performance geben könnte.

    Eventuell irgendwo ein Timeout?


    Interessant wäre es noch etwas zu Deinem Setup zu erfahren.

    Greifst Du direkt auf den Tomcat zu oder aber hast Du noch einen Webserver davorgeschaltet (z.B. Apache / nginx / etc.)?


    Wir außerdem mal einen Blick auf den Menüpunkt "Logging and Profiling" (in der Admin-Konfiguration).

    "Support Tools" --> Instance health sowie "Log analyzer" könnten ebenfalls Aufschluss bringen

    Sollte dies auch nicht helfen erstell mal eine "support zip". Diese entpackst Du dann und kannst sie Dir näher anschauen. Der Vorteil ist, dass hier i.d.R. alles Relevante zusammen ist.


    Viele Grüße

    Schau mal in Deine /var/log/auth.log - eventuell kommst Du dort an mehr Informationen.


    Ansonsten meine ich, kann man den SSH-Server auch im "Verbose-Mode" im Vordergrund starten.Schau mal in die manpage.


    Viele Grüße

    Hallo zusammen,


    ich habe einen kleinen VPS 50 G7 welcher bei mir als Chef-Server fungiert.

    Das klappt ganz gut, aber hin und wieder gibt es timeouts und in htop sehe ich, dass die CPU nicht so richtig mitkommt.


    Weiß jemand von Euch ob der VPS 100 G7 SE eine höhere CPU-Leistung hat oder habe ich erst ab dem VPS 500 G7 SE einen Leistungszuwachs?

    Mit dem Ram komme auch beim VPS 50 G7 ganz gut aus (ca. 350 von 500) belegt.



    Viele Grüße und danke.

    Hallo zusammen,


    ich habe in meinem Hosting-Paket die Option "Perl" und Zugang über SSH mit drin.


    Aktiviere ich Perl im WCP und lade ein Skript hoch kommt mein "Hello-World"-Programm.


    Wenn ich mich aber nun per SSH auf den Webspace schalte, wird Perl nicht gefunden.


    Code
    bash-4.1$ perl -v
    bash: perl: command not found
    
    bash-4.1$ find / -name perl
    bash-4.1$

    Ist es korrekt, dass ich nur über den Browser bzw. über den Webserver meine Perl-Skripte ausführen lassen kann und nicht über die Kommandozeile?


    Vielen Dank Euch :)

    Hallo zusammen,


    ich habe leider Probleme bei der Anpassung meiner .htaccess-Datei.


    Was ich haben möchte

    Code
    * www soll entfernt werden [funktioniert]
    * slash am Ende wenn es kein Ordner ist  [funktioniert]
    * setzen eines Parameters für die Sprache [funktioniert]
    
    
    
    
    neu
    * http --> https [funktioniert nur teilweise]


    Mein URLs sind in dieser Form aufgebaut:

    Code
    http://domain.de/de/seite1/
    http://domain.de/en/seiteXY/


    Beim SSL gibt es nun leider Probleme.
    Ich möchte alles auf https umleiten. Das klappt, jedoch nicht bei Unterordnern.


    Code
    http://domain.de/de/          --> https://domain.de/de/ [funktioniert]
    http://domain.de                 --> https://domain.de/de/ [funktioniert]
    http://domain.de/de/seite1 --> http://domain.de/de/seite1/ funktioniert NICHT]


    Mein Ansatz war wie folgt:


    Kann mir jemand von Euch einen Tipp geben wo mein Fehler liegt?


    Vielen Dank.

    Hallo,



    Noch eine Frage, warum keine ganz einfach gehaltene chroot Umgebung?


    Das wollte ich mal früher.. Aber dann kamen die Probleme :)
    Ich setze PHP-FPM ein und dort habe ich die Chroot-Option für die Pools aktiviert.
    Bedingt dadurch hatte ich dann keine Namensauflösung für meine Applikationen, wget, curl, mail() ... funktionierten nicht.
    Das habe ich aber mittlerweile alles gelöst und es funktioniert auch :)
    Zunächst manuell mit einem Shell-Script, danach mit Jailkit.


    Nun wollte ich aber für jeden meiner Pools einen SSH Zugang haben um dort dann Sachen hochzuladen...
    Oder aber meinem Kunden einen SSH Zugang geben damit er seine Sachen hochladen kann.


    Zitat


    Mir gefällt der Ordnerpfad nicht, was ist als Home gesetzt für den Benutzer x100? Ich hab zwar keine Ahnung was Jailkit macht, aber diese Anleitung die ich gefunden habe sieht brauchbar aus: How to chroot ssh user using Jailkit


    Der Eintrag aus /etc/passwd für x100 sieht so aus: x100:x:1052:1001::/var/www/x100/./home/x100:/usr/sbin/jk_chrootsh


    Eventuell habe ich ja auch nur einen Denkfehler.
    Ohne die Option ChrootDirectory in sshd_config klappt ja mein Login problemlos und ich lande im Jail - so wie es sein soll.
    Vermutlich - so denke ich langsam - habe ich durch den Parameter ChrootDirectory und Jailkitdann eine Art "jail im jail"
    und das System sucht dann in in

    Code
    /var/www/x100/./home/x100/var/www/x100/./home/x100


    und das ist natürlich quatsch.


    Viele Grüße

    Hallo zusammen,


    ich habe eine Verständnisfrage bezüglich Jailkit und meiner sshd_config.


    Über Jailkit habe ich für den Benutzer x100 einen Jail in /var/www/x100 angelegt.
    Dieser Benutzer soll einen SSH-Zugang erhalten um später Dateien hochladen zu können.


    In meiner sshd_config habe ich unter AllowedUsers meinen Nuzter x100 eingetragen.


    => Der Login über SSH klappt einwandfrei.


    Was mich aber nutz stutzig macht ist die Option ChrootDirectory

    Code
    Match User x100
        ChrootDirectory /var/www/x100


    Müsste ich dies nicht zusätzlich setzen? Wenn ich diese Option jedoch aktiviere klappt mein SSH-Login nicht mehr:



    Den Ordner /home/x100 gibt es:


    Vielen Dank für Eure Hilfe :)

    Danke für Eure Antworten.


    Konnte den Fehler mittlerweile finden.


    in /etc/exim4/passwd.client


    hatte ich


    Code
    mxf943.netcup.net:587:EMAIL@MEINE_DOMAIN.DE:PASSWORT


    stehen. Der Port darf dort aber nicht rein. Da ich auch noch den Port mit einem Doppelpunkt getrennt habe - und exim Doppelpunkte zur Trennung der Parameter hier nutzt - war das Chaos perfekt ;)

    Hallo zusammen,


    ich möchte von meinem vServer aus E-Mails versenden können (lokale Mails und Mails z.B. aus einer Webanwendung über PHP).
    Da ich einen MTA benötige der auf einem Port lauscht (PHP Chroot) habe ich mich für exim4-light entschieden.
    Gerne würde ich nun eine neu angelegte E-Mail-Adresse aus dem Web Expert nutzen.


    Leider scheint das so nicht zu klappen.


    Eine Testnachricht sende ich mit:

    Code
    echo "Hallo Welt. Das ist ein Test" | mail -s Testmail MEINE_MAIL_ADRESSE@gmail.com


    Der Log von Exim zeigt mir nun

    Code
    2017-01-25 10:06:33 1HGCX-0003zP-Tx <= USER@SERVER_FQDN U=USER P=local S=375
    2017-01-25 10:06:34 1HGCX-0003zP-Tx cram_md5 authenticator failed H=mxf943.netcup.net [46.38.249.67] 535 5.7.8 Error: authentication failed: One time use of a plaintext password will enable requested mechanism for user
    2017-01-25 10:06:34 1HGCX-0003zP-Tx plain authenticator failed H=mxf943.netcup.net [46.38.249.67] 535 5.7.8 Error: authentication failed: authentication failure
    2017-01-25 10:06:34 1HGCX-0003zP-Tx login authenticator failed H=mxf943.netcup.net [46.38.249.67] 535 5.7.8 Error: authentication failed: authentication failure
    2017-01-25 10:06:34 1HGCX-0003zP-Tx ** MEINE_MAIL_ADRESSE@gmail.com R=smarthost T=remote_smtp_smarthost X=TLS1.2:DHE_RSA_AES_256_GCM_SHA384:256 DN="C=DE,ST=Baden-Wuerttemberg,L=Karlsruhe,O=netcup GmbH,CN=*.netcup.net": SMTP error from remote mail server after RCPT TO:<virgil.grigoras@gmail.com>: host mxf943.netcup.net [46.38.249.67]: 554 5.7.1 <v22016111525639641.ultrasrv.de[188.68.37.202]>: Client host rejected: Access denied
    2017-01-25 10:06:34 1cWJXG-0003zU-0r <= <> R=1HGCX-0003zP-Tx U=Debian-exim P=local S=1392
    2017-01-25 10:06:34 1HGCX-0003zP-Tx Completed
    2017-01-25 10:06:34 1cWJXG-0003zU-0r => USER <USER@SERVER_FQDN> R=local_user T=maildir_home
    2017-01-25 10:06:34 1cWJXG-0003zU-0r Completed


    Mein erster Gedanke: Passowort ist falsch.
    Also ab ins Webmail und eingeloggt. Das klappte problemlos.


    Meine Konfig:
    /etc/exim4/exim4.conf.localmacros

    Code
    MAIN_TLS_ENABLE = 1


    /etc/exim4/update-exim4.conf.conf


    /etc/exim4/passwd.client

    Code
    mxf943.netcup.net:587:EMAIL@MEINE_DOMAIN.DE:PASSWORT


    Wenn ich dc_eximconfig_configtype='smarthost' auf dc_eximconfig_configtype='internet' ändere klappt es, dann sende ich aber nicht mehr über die E-Mail Adresse von meinem Web Expert-Paket.


    Hat jemand von Euch eine Idee woran es liegen könnte?


    Vielen Dank.

    Edit: In bin, dev, etc, lib, lib64, usr, var darf ich nichts anstellen
    In logs, mivdata, tmp darf ich Änderungen durchführen


    Also in bin, dev, etc, lib, lib64, usr und var hast Du bestimmt nichts löschen können.
    Bleibt nur logs, mivdata tmp und web wo etwas geschehen sein könnte.


    logs -> sollte sich selbst befüllen
    mivdata -> war bei mir leer
    tmp -> sollte sich selbst befüllen
    web -> hier war wie gesagt nur ein leerer Ordner mit dem Namen einer Subdomain drin. Sonst nichts.


    Du kannst Netcup mal anschreiben und nachfragen.
    Aber wenn ich so nach dem Ausschlussprinzip vorgehe, dürfte nichts passiert sein :)

    cgi-bin: bei mir leer
    error_docs: scheinen Fehlerseiten zu sein
    web: ein Ordner (nach einer Subdomain benannt)


    Zu error_docs: Wenn ein Fehler auftritt schaut der Webserver nach ob eine "custom" Fehlerseite definiert ist (nämlich in diesem Ordner).
    Sofern nein, sollte eine "Standardfehlermeldung" kommen.
    Probier einfach mal einen 404 Fehler zu erzeugen.


    Meine "not_found.html" hat den folgenden Inhalt


    Hier mal ein Screenshot von meiner Ordnerstruktur.
    Ich weiß aber nicht ob die 1:1 übertragbar ist.
    In / ist noch .bash_history und .mysql_history


    Bei error_docs aber zum Beispiel würde ich davon ausgehen, dass der Ordner automatisch wieder neu angelegt wird.


    Edit: In bin, dev, etc, lib, lib64, usr, var darf ich nichts anstellen
    In logs, mivdata, tmp darf ich Änderungen durchführen
    Der Ordner web ist glaube ich mein Vergehen