Beiträge von RHA

    Jaaaa, jetzt hat es mich auch erwischt. Aus heiterem Himmel habe ich plötzlich ständige Paketverluste für ein paar Sekunden (2-5 Sekunden), während derer man die anderen nicht mehr hören kann. Laut den Logs kann ich keine Auffälligkeiten feststellen, und die Serverlast ist deutlich im gesunden Rahmen.


    Da der TS3-Server auf einem vServer läuft ... könnte es sich lohnen mal beim Support nachzufragen ob die den Node mal prüfen könnten?

    Kommt drauf an wie hungrig die Websites sind. Wenn CMS Systeme darauf laufen, würde ich den VPS 1000 oder eher noch größer nehmen, wenn sie klein aber fein sind reicht wirklich der VPS 500.

    OK, es laufen CMS (Joomla) darauf. Dann ggf. minimum den VPS 1000.


    Entscheidend könnte auch die Frage sein, ob nicht-garantierte CPU-Ressourcen und die geringere Mindestverfügbarkeit ein Problem ist oder nicht.

    Ob 99,6% oder 99,9% ist in diesem Fall bedeutungslos. Ist kein Shop oder ähnlich wichtiges, sondern sind rein Informative Websites. Eine gelegentlich verspätete Email ist auch nicht das Thema. Zur Zeit laufen die Emails mit Greylisting, was ja auch zu Verzögerungen führt.

    Hallo,


    ich bin mal wieder sooo unentschlossen. Zur Zeit gibt es ja Root-Server und vServer im Herbst-Angebot. Da ich gerne ein paar Dinge von einem anderen Server auslagern möchte, müsste ich mich für einen Server entscheiden.


    Ich möchte auf einem Server ein Admin-Tool installieren (Keyhelp), und "nur 3 Kunden mit insgesamt 5 HPs und einigen Emails" darauf übertragen. Zur Wahl stehen für mich im Moment

    VPS 500 G7 SE

    VPS 1000 G7 SE

    RS 500 SAS G7 SE


    Vom Gefühl her sollte meiner Meinung nach sogar der VPS500 reichen. Der hat zwar nicht viel Festplattenkapazität, die wird in den Projekten allerdings auch nicht benötigt. Im Moment reichen 5GB je Kunden vollkommen aus, ist sogar einiges übrig.


    Ist das zu knapp kalkuliert?


    Sollte ich evtl sogar auf den Adventskalender pokern? (wobei ich nicht glauben kann das es noch günstiger wird als in der Herbst-Aktion, zur Not hätte man ja die Zufriedenheitsgarantie)



    Bisher läuft auf einem Root mit 4 Kernen und 12GB natürlich alles rund. Da auf dem Server allerdings mehrere Dienste vermischt sind, und ein PHP-Update ansteht, bietet es sich natürlich an das Gebilde zu entzerren.

    ... da hab ich gar keinen Bock zu ...


    Das ist ja schon mal die falsche Einstellung. Server und/oder Webspace haben immer ein wenig mit Arbeit zu tun. Du möchtest weitere Datenbanken haben um etwas zu probieren, aber ein Umzug, welcher nicht mal 30 Minuten dauert, ist zu viel? Hmmmmm .....


    Ein Umzug mit einer (1) WordPress-Seite sollte nicht lange dauern. Akeeba-Backup installieren, Backup durchführen, Backup runterladen und auf den neuen Server hochladen, Akeeba-Kickstart auf den neuen Server hochladen, Kickstart ausführen und den Anweisungen folgen ... fertig. Muss nur noch die Domain auf den neuen Server geleitet werden.

    ... dort scheint es nur einen zu geben, der Support macht und das auch noch schlecht. Mit keiner seiner Antworten (die zudem noch sehr herablassend formuliert sind) auf die Fragen anderer User konnte ich wirklich etwas anfangen... ich bekam es alles auch selbst gelöst und musste dann feststellen, dass meine Lösung gar nicht mit seinen Antworten zusammenpasste - wenn der eine oder andere User da frustriert aufgibt, kann ich das verstehen. Viele Thread laufen da ins Leere, viele enden mit der User-Aussage "ich habs selbst herausgefunden" - was nicht verwunderlich ist.

    Deshalb werfe ich immer wieder gerne das Panel Keyhelp in den Raum. Ich finde das sehr ordentlich und übersichtlich, mit gutem Funktionsumfang, und der Support über das Forum funktioniert. Regelmäßige Updates und schnelle Anpassungen an neue Systemversionen (läuft aber nur auf Debian und Ubuntu). Dazu ist es kostenlos. Als Nachteil könnte man empfinden, das es kein OpenSource ist, aber das ist Plesk auch nicht. Allerdings ist es nicht unbedingt für jeden einsetzbar, da es "nur" in zwei Ebenen arbeitet : Admin und Benutzer. Es gibt also keine Möglichkeit einen Reseller einzurichten. Wer diese Ebene benötigt kann mit Keyhelp nichts anfangen.

    Also ich hatte es auf meinem Server auch schon, das bei einem von mehreren LetsEncrypt-Zertifikaten plötzlich ein Fehler in der Schlüsselkombi angezeigt wurde. Trotz dieses (angeblichen) Fehlers funktionierte der Aufruf der Seiten noch problemlos (was dafür spricht daß das Zertifikat noch in Ordnung war), allerdings für eine Zertifikatsabfrage/-verlängerung bei LE musste ich das Zertifikat komplett neu ausstellen lassen (einfach mit '--expand' neu beantragt). Woher dieser Fehler kam? Keine Ahnung! Der Fehler war plötzlich da, ohne das ich an den Zertifikaten etwas verändert hätte. Die Abfrage/Kontrolle der Zertifikate (mit Parameter '-certificates') funktionierte problemlos, und die Zertifikate waren noch ca. 80 Tage gültig. Aber 2 Wochen später dann der Fehler, ohne etwas verändert zu haben. Daher kann ich nur empfehlen, immer mal zwischendurch die Zertifikate zu prüfen, und das Ablaufdatum im Auge zu behalten. Normalerweise findet eine Verlängerung ja bspw. 30 Tage vor Ablauf statt. Ist die Restlaufzeit dann 20 Tage, dann kann etwas nicht stimmen und man sollte aktiv werden. Fügt man ein neues Zertifikat hinzu, dann alle Zertifikate verlängern (wenn möglich), damit man weniger Termine im Auge behalten muss.

    Ich stehe bzgl. des Problems noch mit dem Support in Kontakt. Ich bin gefragt worden, ob ich mal testweise den Netzwerk-Treiber von VirtIO auf E1000 umstellen könnte ... Bis jetzt habe ich damit noch keine Ausfälle gehabt. Wer unbedingt mehrere IPs benötigt, kann das ja mal ausprobieren...

    Hatte ich ALLES durch, Nichts hat geholfen. Ich hatte ja ein wenig die Infrastruktur oder die Virtualisierung in Verdacht, da ich eigentlich mit einer Standard-Config mit 2 IPs gearbeitet hatte. Aber nach dem Server-Umzug und noch 1 oder 2 Tipps war der Support durch. Es konnte mir damals auch niemand erklären warum die Deaktivierung der 2. IP den Fehler beseitigt hat. Deshalb habe ich dann auch alles so belassen. Ist Mist, wenn mindestens 1mal pro Stunde alle User aus allen TS3-Servern rausfliegen und die Game-Server riesen Lags haben.


    Hab nochmal meinen alten Beitrag rausgesucht.


    Interessant war dabei auch, das der Server vorher über Monate reibungslos mit den Configs lief, und dann plötzlich nicht mehr.

    Also ich hatte vor längerer Zeit auch einmal Probleme mit der Erreichbarkeit meines Servers. Habe alles Mögliche probiert, auch einen Umzug des Servers, aber Nichts hat geholfen. Der letzte Strohhalm vor einem kompletten Neuaufsetzen des Server : Die Netzwerkkonfiguration (im Ubuntu) ändern, so das die Failover-IP nicht mehr aktiv ist und der Server nur mit einer IP läuft. Siehe da .... seitdem läuft der Server ohne Probleme. Habe bisher nicht weiter danach gesucht, ob evtl eine Kernel-Version davon betroffen war, es generell am Ubuntu lag oder u.U. an der Virtualisierung das Problem zu suchen ist. Meine Dienste sind alle auf eine IP umgestellt, welche dem Server fest zugeordnet ist.


    Ich kann also nur empfehlen eine ggf. aktivierte zweite IP (Failover) auf dem Server zu deaktivieren (Netzwerk-Config auf eine IP stellen).

    Spontan wäre die Idee, das nicht die Router, sondern ggf. ein zwischengeschalteter Proxy oder DNS-Dienst die Seiten sperren, da dort u.U. deine Seiten als Ponographie, Alkohol oder sonstiges eingestuft werden. Ich arbeite z.B. mit OpenDNS, um Seiten auf den Rechnern meiner Kinder zu blocken. Der Dienst stuft sogar Seiten wie Otto oder Neckermann zeitweise als Pornographie ein (da gibt es ja Frauen in Bikini). Man kann halt schlecht etwas dazu sagen, ohne deine Seiten und deren Inhalt zu kennen.

    Das ist vielleicht eine Art zu "antworten", aber sie ist definitiv nicht höflich.

    Vielleicht hat er ja, genau wie Nico oder andere Beispiele, auch schon haufenweise Angebote bekommen, und einfach keine Lust mehr darauf höflich zu sein, sondern ist schon abgenervt.


    Du kannst es drehen und wenden wie du willst. Es war seine Art zu antworten, und du musst es akzeptieren. Punkt, Ende, Aus. Das ewige hin und her disktuieren macht am Ende deine Handlung unhöflich, denn du suchst nach einer Möglichkeit oder Bestätigung ihn weiter zu bedrängen.

    Also mit Certbot ist LetsEncrypt ja schon fast ein Kinderspiel. Ich habe nur beim Erweitern eines Zertifikates einen Moment benötigt um zu begreifen das die alten Adressen mit angegeben werden müssen, also nicht nur die welche hinzugefügt werden sollen. Es wird gleich ein Cron angelegt, welcher sich um die Verlängerung der Zertifikate kümmert. Den Cron schnell noch um ein Skript erweitert, welches nach einem erfolgreichen Zertifikat-Update ausgeführt wird und damit die Dienste neu startet, fertig.


    Ich hatte auch lange gzögert, aber inzwischen ist das System um LE echt rund. Und Wildcards sollen auch bald kommen. Dann ist es perfekt. Meine Seiten laufen inzwischen alle mit Zertifikat, und ich würde mir zur Zeit keines mehr kaufen.

    Genügt es zumindest zu weiteren Schadensvermeidung, einen Virenscanner über den Client laufen zu lassen?

    Und nun geht die Streiterei darum los, welche Virenscanner dafür geeignet wäre ...


    Je nach Scanner wird es dir eine gewisse Sicherheit bringen. Du solltest alles Mögliche tun, um eine Wiederholung des Falles zu vermeiden. Also Scannen, Log-Dateien auswerten, auf einen sauberen Stand zurück, alles überflüssige aus der Seite entfernen, Script-Leichen (wie z.B. das Gästebuch) entfernen, usw. usw.



    Ich kenne einen Fall von einem Arbeitskollegen, der sich ca. ein halbes Jahr damit herumgeschlagen hat. Immer wieder wurde seine Seite gehackt, bis dann nach vielem Testen festgestellt wurde, das seine Sicherung bereits kompromittiert war, allerdings dort noch versteckt ohne offensichtliche Folgen. Es war einfach "nur" bereits eine Hintertür eingebaut. Der Angreifer hat seelenruhig noch weiter gewartet bis er richtig aktiv wurde. Seine Rechnung ging auf, es wurde immer auf eine Sicherung zurück gegangen, welche nach seinem ersten Angriff lag, bei welchem nur die Hintertür eingebaut wurde. Das flog dann erst nach intensivstem Suchen in den Log-Files auf, wozu mein Kollege vorher zu faul war. Selbst wenn alles gut aussieht, und die Seite wieder läuft, nehm dir die Zeit zum Suchen. Ab und Zu könnte sich das lohnen.

    Wenn die Seite einen Login hat und eine Datenbank verwendet, dann empfehle ich noch immer auf einen alten Stand zurück zu gehen, welcher noch nicht kompromittiert war (also ein Sicherung, welche hoffentlich vorhanden ist). Ist nicht selten, das die DB gehackt wird (es wird z.B. ein Account angelegt), worüber man als Angreifer nach dem Bereinigen durch den Seitenbetreiber gleich wieder einfallen kann. Eigentlich ist es grundsätzlich empfehlenswert auf eine saubere Version zurück zu gehen, und die vermutlichen Schwachstellen zu beseitigen. Sollte der Angreife dann wieder einfallen können, weiß man das man an der falschen Stelle gesucht hat bzw. etwas übersehen hat. Geht man nicht zurück kann man nicht wissen ob man etwas übersehen hat, oder ob der Angreifer eine Hintertür hinterlassen hat.

    Hmmm ... wenn es eine Lösung für das Problem gibt, dann wäre ich an einer kurzen Mitteilung sehr interessiert. Bei UD ist eine .online Domain unschlagbar günstig (habe keinen anderen finden können der das für 19€/Jahr oder weniger anbieten kann), und ich hätte gerne eine. Daher möchte ich schon wissen ob und wie ich die Domain auf einen Server bei Netcup leiten kann. Wobei, dein Problem betrifft ja einen Webspace. Server sollte eigentlich funktionieren, oder?

    Falls noch jemanden mein Script interessiert habe ich es mal angehangen.


    In der Datei sind 2 Scripte (backup.sh und backupme.sh). Bei mir liegen die in einem Ordner, auf den nur 'root' Zugriff hat. Mit backup.sh startet man das Backup (in dem Script ist einzustellen welche User das Script zu starten hat, wie das Log-File benannt werden soll, und wo es gespeichert wird). Darüber wird backupme.sh gestartet, in welchem z.B. die zu sichernden Ordner für Quelle/Ziel und/oder der SQL-Zugang angegeben werden. Die Rechte auf die Ordner werden auf den aufrufenden User bzw. der Gruppe begrenzt (Wichtig, da die SQL-Zugangsdaten im LOG-File stehen).


    Die Quelle der Idee zu dem Script stammt aus dem Script von RayMD (ray-works.de). Ich habe dies etwas erweitert und fortgeführt.



    Bei Vorschlägen zur Verbesserung bin ich gern bereit diese umzusetzen.

    Also die Frage gab es hier ja schon des Öfteren.


    Mit einem Snapshot kann ich eigentlich nur den gesamten Server wieder herstellen. Macht, wie von Thomba erwähnt, nicht immer Sinn.


    Ein Storage-Server ist einem ggf. zu teuer, aber ich könnte schön mit fertigen Tools arbeiten.


    Möglich wäre auch ein Storage-Space hier bei Netcup und die wichtigen Daten per Script sichern, ist aber nicht ganz gefahrlos, im gemounteten Zustand könnte hier auf verschiedene Wege Daten verloren gehen oder beschädigt werden. Man muss also auspassen was man macht und den Storage-Space nach Möglichkeit nicht ständig gemounted lassen.



    Ich persönlich habe nicht viele Daten, und vor allem nicht viele dynamische Daten (bis auf Emails). Ich sichere die Daten automatisch per Script auf dem eigenen Server und lade diese hin und wieder manuell auf den heimischen PC. Da werden sicher einige Leute die Hände über den Kopf zusammen schlagen, aber mal ehrlich, mehr als ein paar Emails (die bereits vom Server empfangen aber noch nicht mit einem Client gelesen wurden) können dabei normalerweise nicht verloren gehen. Einen FTP-Download könnte man mit entsprechender Client-Software auf dem heimischen PC auch noch automatisieren.