Beiträge von X-Nightmare-X

    Also ich habe da so meine Zweifel, dass eine verschlüsselte Verbindung zum Datenbankserver aufgebaut werden kann. Macht man ja lokal meist schon nicht, weil es die Datenbankzugriffe langsamer macht und - hier im Shared Webhosting vielleicht noch wichtiger - der Datenbankserver mehr arbeiten muss. Wozu wird denn die Datenbank überhaupt gebraucht? Wenn Performance halbwegs wichtig ist, würde ich mir lieber lokal einen MySQL/MariaDB -Server installieren. Damit würden gleich mehrere Probleme hinfällig...

    • Keine Verschlüsselung notwendig, es kommt kein externer an die Datenbank dran.
    • Kürzere Zeit beim Aufbau einer Verbindung und auch bei der Übertragung von Daten (Webhosting ist nur mit 100 MBit angebunden, jedenfalls in der Theorie.
    • Keine Ausfallzeit bei Änderung der externen IP.

    Anders mag es aussehen, wenn die meisten Zugriffe über das Webhosting passieren und nur die Daten von Zeit zu Zeit von lokal abgefragt werden.

    Ich denke schon, dass es möglich ist. Wurde ja auch geschrieben, dass es unterstützt wird. Ich finde generell sollte man Verschlüsselung vorraussetzen. Selbst lokal, klar gebe dir Recht, ist nicht unbedingt notwendig, sollte man trotzdem das meiste möglichst verschlüsseln. Finde, dann ist man immer auf der "sicheren" Seite.

    Davon Mal abgesehen würde ich auch behaupten, dass es in der heutigen Zeit nicht mehr so viel Unterschied macht. Natürlich der Aufbau der Verbindung und natürlich bei Massenweise Zugriffen merkt man das schon aber finde das trotzdem sinnvoll.


    Klar lokal installiert ist an sich was Performance an geht immer besser. In meinem Fall aber so nicht umzusetzen bzw. nicht sinnvoll.


    Das mit der DynDNS war auch nur zusätzlich als Sicherheit, dass wirklich nur mein RPi Zuhause und der Webserver und Root-Server drauf zugreifen können.

    Mit IP Änderung ist das natürlich problematisch.


    mysqli_real_connect() kennt z.B. das Flag MYSQLI_CLIENT_SSL und das funktioniert beim Webhosting einwandfrei ohne mysqli_ssl_set().


    Damit wird das Zertifikat des Servers allerdings nicht geprüft! Vor einem echten MITM-Angriff schützt das also nicht, nur vor dem bloßen Mitlesen.

    OKey, danke.

    Schaue ich mir Mal an. Hab da auch schon was in PDO eingefügt, bin mir nur nicht sicher ob das so funktioniert und hab da nicht wirklich Erfahrung mit der Verschlüsselung. Wüsste halt auch nicht welche Zertifikate ich nehmen muss.


    Ich glaube die Verschlüsselung ist im Jahr 2023 kein wirklicher Ressourcenfaktor mehr, das merkt man kaum. Was definitiv langsamer wird, ist der Verbindungsaubau. Der dauert gerne mal 100 Millisekunden länger, wenn man SSL verwendet. Bei einer externen Verbindung außerhalb des RZ macht das aber auch keinen wirklichen Unterschied mehr, da ist sowieso alles grottenlangsam, je nachdem wie hoch die Latenz ist.


    Dennoch hast Du mit dem Rest Deines Beitrags natürlich vollkommen recht, dass eine lokale Installation immer vorzuziehen ist.

    Grotten langsam kommt immer drauf an.

    Also damals bei Festnetz 1&1 hatte ich so gut wie nie Probleme. Es kamen 250K Down und 50K Up mit Ping von 10ms an und das so gut wie durchgehend. Das war überraschend gut.

    Jetzt aktuell mit Mobilfunk kommen in meinem Ort (nicht bestens ausgebaut) trotzdem bis zu fast 200K Down und bis 50K Up an mit Ping von 30-70ms.

    Also Recht akzeptabel.

    Natürlich niemals so gut wie im Rechenzentrum mit der Anbindung usw.


    Also die Sache ist die, dass ich mit meinen RasPi Daten aus der Datenbank Abrufe welche zuvor von meinem Webhosting bzw. Root-Server eingetragen werden.

    Das wäre halt schön, wenn nicht einfach alles unverschlüsselt quer durchs Internet geht. Und meines Erachtens nach ist es da egal welche Daten. Warum sollte man sonst https überall einsetzen. Kann man ja auch weg lassen. Kommt im Endeffekt aufs gleiche hinaus. Natürlich nur grob gesagt aber dann kann ich Verschlüsselung auch weg lassen. Macht aber keiner. Wäre ja auch sinnfrei. Von daher sollte das wohl seitens NetCup das mindeste sein, das zu ermöglichen. Generell sollten Sie es für Verbindungen außerhalb des Netzwerks erfordern.


    Naja wie dem auch sei. Wäre halt schön wenn's geht. Würde es wahrscheinlich einfach überall aktivieren. Da ist mir Sicherheit wichtiger als ein paar Millisekunden hier und da. Ich habe eh aktuell keine sonderlich ausgelasteten Dienste wo wer weiß wie viele tausend Leute drauf laufen. Außer halt TOR und da laufen auch 8-12K Verbindungen verschlüsselt ohne Probleme.


    Also wäre es schon traurig, wenn das bei ner DB nicht geht.


    MfG und danke für die Infos.

    Okay danke schon mal für die Infos.

    Kann mir zufällig jemand generische Login bzw. Connect Befehle für MySQLi bzw. PDO bereitstellen?

    Verstehe das noch nicht ganz, wie ich da korrekt die Verschlüsselung aktiviere.

    Welche Zertifikate muss ich wie einbinden usw. Hab mir das mal grob abgelesen und gegoogelt aber bin mir nicht sicher ob das klappt und alles so richtig ist.

    Schon Mal interessant zu wissen, LUKS hab ich tatsächlich noch nicht gehört oder eingesetzt. Muss ich mich Mal drüber einlesen.

    Kann man das System denn trotz laufender Anwendungen und Daten nachträglich verschlüsseln oder muss man das System komplett neu aufsetzen?


    Hätte tatsächlich gedacht, dass das deutlich größere Datenmengen als normal werden und der Server langsamer wird.


    Heißt dann, so lange niemand mein Root / Server Passwort hat, kommt man garnicht mehr an irgendwelche Daten?


    Wie sieht es denn mit dem Passwort reset vom SCP aus? Ist dann wahrscheinlich auch nicht mehr möglich. Soll ja dann theoretisch auch so sein. Wäre dann nur die Frage, was passiert wenn man's trotzdem ausführt.

    In einem unkomprimierten qcow2 Image werden Daten, die kein Teil eines Snapshots oder Backing Stores sind, direkt überschrieben. Der "copy on write" Aspekt betrifft nur vom qcow2 Format komprimierte Daten und Daten, die erhalten werden müssen.


    Überschreiben ist trotzdem kaum sinnvoll, weil die Speichersemantik des Hostsystems nicht bekannt ist, speziell ob dort Kopien bestehen bleiben. Ich würde mir eher Gedanken machen, ob nach der Übergabe noch Backups existieren, die vom Support für den übernehmenden Kunden restauriert werden können.

    Das Backup restaurieren wäre ja rechtlich für NetCup schon ziemlich problematisch.

    Was natürlich im Verborgenen passiert ist die andere Sache.


    Ja, da gebe ich dir Recht. Was wird heutzutage nicht ausgewertet..

    Werde mich darüber auf jeden Fall Mal einlesen und dann schauen, wie ich das am besten umsetze. Gibt mir dann wohl deutlich mehr Ruhe.


    Blöd gefragt, macht es dann überhaupt noch Sinn, zusätzlich Daten zu verschlüsseln oder extra Container dafür zu erstellen, oder zum Beispiel bei NextCloud die Verschlüsselung zu aktivieren?

    Also grundsätzlich ist natürlich jede Schicht an Sicherheit besser aber macht es wirklich Sinn, wenn eh alles verschlüsselt ist?


    Danke für die Erfahrungen und die Infos ✌🏼😋

    Meinst Du wenn in Remoteverbindungen zulassen von nur die interne DB IP-Adresse eingetragen ist, dass dann deine Remote IP geblockt ist? Wenn nur die interne DB IP-Adresse eingetragen ist, dann geht der Zugriff auch nur von dieser IP.


    Ich habe bei mir unter Remoteverbindungen zulassen von folgende IPs eintragen:

    • die interne DB IP-Adresse
    • die interne Webserver IP-Adresse
    • meine public Remote IP-Adresse (Heimnetzwerk)

    DynDNS müsste man testen, ob bei Netcup eventuell ein DNS Cache für Abfragen der FQDN Einträge reinspuckt.

    Ja genau das meine ich.

    Also muss ich hier auch die interne IP eintragen, da diese sonst auch gesperrt ist. So wie ich das jetzt verstehe schon.


    Ja, DynDNS könnte wahrscheinlich Probleme machen. Wäre halt interessant zu wissen, ob's jemand schon Mal getestet hat.

    Verschlüsselst Du die Verbindung dabei irgendwie oder schickst Du das alles im Plaintext quer durchs Internet?


    DynDNS würde ich an dieser Stelle eher vermeiden. Aber Du kannst in Plesk auch ganze Subnetze Deines privaten ISP freischalten, wenn ich mich nicht täusche. (z.B. 100.0.0.% oder 100.0.0.0/255.255.255.0)

    Das wäre alternativ auch interessant. So könnte man den Zugriff zumindest etwas einschränken. Anstatt einfach alles von außen zuzulassen.


    Tatsächlich habe ich mir darüber nicht Mal Gedanken gemacht. Bisher seit längerem nicht viel mit DBs zutun gehabt. Nur die "fertigen" Anwendungen die eine brauchen.

    Nutzdaten, die in die DB eingetragen werden aktuell bei dem Projekt sind nicht verschlüsselt. Das ist mir aber bewusst bzw. relativ klar, wie ich das umsetze. Bei Passwörtern und ähnlichen Daten wäre das auch Vorraussetzung für mich. Aber in dem Fall aktuell nicht notwendig. Kann ich natürlich trotzdem noch einbauen.


    Wäre die Frage, worüber ich mir tatsächlich peinlicher Weise kein Kopf gemacht habe, die Verbindungsverschlüsselung.

    Hab irgendwie einfach nicht dran gedacht und angenommen, dass die wohl einfach verschlüsselt ist 😅


    Setzen die DBs von NetCup Verschlüsselung voraus?

    Kann man ja in die Config der DB rein packen.


    Andere Frage, wie sieht es da mit PHP und MySQL/PDO aus?

    Wie setze ich da explizit Verschlüsselung um?


    Danke für die Infos ✌🏼

    Moinsen, wollte Mal fragen, ob es Sinn macht und ob es überhaupt funktioniert die Remoteverbindungen zur Datenbank per DynDNS freizuschalten.


    Also man kann ja im WCP bei den Datenbanken die Einstellung ändern, Remoteverbindungen zu sperren bzw. nur bestimmte frei zu schalten.


    Eine Frage dazu, wenn ich die interne IP verwende, gilt die Sperre dann auch oder wirklich nur für die externe IP?


    Außerdem wäre die Frage, ob es Sinn macht die Datenbank nur für meinen eigenen Server und meine Heimnetz IP frei zu schalten um halt nur mein RasPi auf die DB zugreifen zu lassen und meinen Server über die Interne IP.


    Wäre halt die Frage, wie schnell die IP im Server dann auch frei geschaltet wird nach einem Update.


    Also die DNS Einträge sind sehr schnell geupdatet, da Cloudflare verwendet wird.


    Ist halt nur die Frage, wie schnell die Datenbank auf eine geänderte IP reagiert und dementsprechend die IP freischaltet. Ansonsten wären jedes Mal für die Zeit des IP Updates die Datenbank nicht erreichbar.


    Mein Ziel ist halt möglichst keinen Zugriff für unberechtigte auf die DB überhaupt zu ermöglichen.


    Freue mich über Infos und Erfahrungen von euch ✌🏼

    Okey danke für die vielen Infos das hilft mir schon Mal gut weiter um darüber bescheid zu wissen wie das läuft. Hab mir fast schon gedacht, dass die Festplattenwiper in dem Fall nichts bringen.


    Wie machst du das mit dem verschlüsseltem System?

    Ich hab zwar in dem Sinne nichts "schlimmes" auf den Platten was unbedingt verborgen werden muss aber die privaten Daten in meiner Cloud zum Beispiel wären auch besser dran, wenn diese zusätzlich verschlüsselt werden.

    Gibt mir etwas mehr Ruhe, dass da "keiner" so einfach dran kann.

    Ist zumindest mehr Sicherheit so lange natürlich keiner direkt in mein System kommt.


    Außerdem wäre interessant zu wissen, wenn das ganze System verschlüsselt ist, wie sich das auf die Leistung und den Speicherplatz auswirkt. Oder macht es da eher Sinn einfach einzelne verschlüsselte Container oder ähnliches zu nehmen?


    Und was passiert, wenn Mal irgendwas im System abschmiert. Kann man die Daten dann noch wiederherstellen? Komplette Systemverschlüsselung hab ich noch nie eingesetzt.

    Zum Beispiel irgendwie n Teil der zu sichernden Daten runterladen und außerhalb entschlüsseln oder geht nur das gesamte Server Image per Export und dann entschlüsseln?


    MfG

    Mal spontan die Frage, wie das technisch bei NetCup aussieht mit dem Festplatten-(Speicher) den man zugewiesen bekommt.


    Also es ist ja soweit mir bekannt, ein ziemlich großes RAID System also vom Speicherplatz her.


    Meine Frage ist, wie sinnig es ist und ob die Möglichkeit besteht bei zum Beispiel einem Inhaberwechsel oder ähnlichem, die Daten sicher zu überschreiben.


    Ich wüsste nicht, ob man auf die Festplatten an sich so Zugriff hat, um Ausleseprogramme laufen zu lassen.

    Aber man kennt es ja von Zuhause bzw. Windows, mit dem Dateien löschen. Die Dateien werden ja im Standard Fall einfach nur aus dem Index ausgetragen bzw. als gelöscht markiert. Dementsprechend tauchen diese nicht mehr auf aber sind dennoch auf der Festplatte gespeichert bis zum nächsten beschreiben.


    Dazu die Frage, bekommt man bei NetCup einen "festen" Speicherbereich zugewiesen oder werden die Dateien sozusagen gerade da gespeichert wo sie am besten hin passen? Bin da mit solchen RAID Clustern nicht vertraut.


    Können andere oder halt auch ich, den Speicherbereich auslesen?


    Macht es Sinn einen Festplattenwiper über die Dateien laufen zu lassen?


    Löscht NetCups System automatisch Speicherbereiche sicher oder wie funktioniert das ganze?


    Hab das jetzt zwar aktuell nicht vor, aber einfach Mal um zu wissen ob das geht bzw. Sinn macht und wie sich das bei NetCup auf das Cluster auswirkt.


    Einfach paar Infos oder Erfahrungen wären cool. :thumbup:

    Danke im Voraus. :)

    Oder auch eine komplett eigene php.ini verwenden. Beides könnte man super in eigenen Wrapper-Scripten verwenden, z.B. so:


    https://github.com/froonix/web…ocs/nextcloud/wrapper/occ

    Übernimmt denn, wenn ich in dem benutzten Verzeichnis eine PHP.ini setze, dann auch die Shell in dem Verzeichnis diese Einstellungen?


    Mit dem Wrapper Script müsste ich mir anschauen. Noch nie gemacht.w

    Wahrscheinlich weil 128M(iB) der Standardwert ist: https://www.php.net/manual/en/ini.core.php#ini.memory-limit


    Code
    $ bc -l <<< "134217728 / 1024 / 1024"
    128.00000000000000000000

    Hm ok aber müsste das nicht trotzdem von den 1GB überschrieben werden? Ich meine die phpinfo zeigt das ja auch an.

    Habs gerade selber nach gegoogelt. Wusste ich tatsächlich auf der CLI noch nicht.
    Hat jetzt funktioniert.

    Trotzdem danke, für die schnelle Antwort.

    Aber mal so nebenbei, dann hat NetCup das ja irgendwie trotzdem limitiert.


    Also wenn 1GB angegeben sind und die auf der Webseite mit phpinfo() auch angegeben werden, frage ich mich ob die da denn auch wirklich verfügbar sind.

    Außerdem sollte dann ja mal unabhängig davon auf der CLI standardmäßig auch 1GB aktiv sein.

    Warum ist das denn limitiert auf die 134,217728 MB, und auch noch son komischer Wert.

    Finde ich etwas seltsam.
    Es werden 8GB nutzbar angegeben und pro Prozess 1GB dann frage ich mich halt wieso 134,.. MB

    Moinsen,


    ich bin gerade dabei, mir eine Anwendung auf meinem Server zu installieren.

    Bei der Installation bekomme ich den Fehler:
    Error: Allowed memory size of 134217728 bytes exhausted (tried to allocate 69632 bytes)


    In der phpinfo(); bekomme ich das in meinem Tarif eingestellte Memory Limit von 1GB angezeigt.
    Wieso wird mir hier lediglich 134217728 bytes angezeigt, sowie bei der Beanspruchung von 69632 bytes ein Fatal Error rausgeworfen?

    Komme so mit der Installation nicht weiter.
    Bei meinem alten Webhosting konnte ich die gleiche Anwendung ohne dieses Problem installieren.
    Jetzt habe ich im Endeffekt doppelt so viel Leistung und es geht nicht mehr..

    Kann mir da jemand helfen?
    Ist das einfach falsch eingestellt?
    Oder wo liegt der Fehler?


    Danke im Voraus.
    MfG :)

    Bessere Alternative inkl. Zertifikat: Eigene Roundcube-Installation.


    Muss man dann halt auch updaten. Dafür hat man alle Freiheiten.

    Ja an sich gute Idee, hab ich auch schon drüber nachgedacht. Aber an sich dachte ich mir, eher die einfachere Variante wo das einfach fertig ist und läuft. Soweit hab ich da ja kein Problem mit. Dachte mir nur halt, sieht unter der eigenen Domain besser aus und ist dadurch unabhängig vom eigenen RS.

    Möchte eigentlich das Webhosting und die RS getrennt voneinander halten.

    Vielleicht in Zukunft.

    Aber trotzdem danke für die Idee.

    Moinsen Leute,


    wollte Mal fragen, da mir unter anderem schon länger aufgefallen ist, dass im DNS beim Webhosting, ein webmail.domain.de Eintrag angelegt ist, wie ich die Seite vernünftig absichern kann.

    Also ich kann dann ja unter der Subdomain den Roundcube Server (Webseite) aufrufen und darüber dann meine Mails ansehen. Jetzt ist meine Frage, wie ich das Zertifikat vernünftig hin bekomme.

    Ich finde die Variante unter der eigenen Domain doch deutlich schöner als xyz.webhosting.... das einzige Problem dabei ist, dass natürlich der Browser wegen dem Zertifikat meckert, da es ja nicht für meine Domain ausgestellt ist.


    Wie kann ich das so einrichten, dass die Seite normal verschlüsselt erscheint?

    Webseite selbst unter der Domain laufen lassen und per IFrame oder ähnlichem einbinden?

    Oder welche Möglichkeiten gibt es noch?

    Wäre schön, wenn das einfach irgendwie klappt. Muss ja ne Möglichkeit geben, die mir gerade nicht so einfach einfällt. Ansonsten wäre das ja mehr oder weniger unbrauchbar, da man ständig die Warnmeldung des Browsers hat.


    Danke im Voraus

    MfG

    Also noch ein kurzes Update und eine Frage.
    Hab jetzt die Hashs erstellt. Wollte da mal nachfragen wie ich denn (einfach mal zum Testen) crc32 nutzen kann? Der Befehl wird nicht gefunden. MD5 und SHA1 geht.
    CRC32 soll aber schneller sein. Da frage ich mich, wenn man Blake wie oben genannt selbst implementieren kann, geht das auch mit CRC32 ?

    Hab bei sowas tatsächlich noch nicht so die Ahnung, wie man solche Shell Sachen lokal selbst installiert in einer CHROOT Umgebung.

    Tatsächlich, hab ich wahrscheinlich wohl irgendeinen Fehler oder so gemacht. Komischerweise waren 2 Mal Archive mit den 100GB Daten vorhanden anstatt nur 1.
    Weiß nicht ob ich da jetzt was falsch gemacht habe bzw. irgendwie ein Archiv vergessen habe, dass ich dies erstellt und nicht gelöscht habe oder ob bei dem Befehl was falsch gelaufen ist. Auf jeden Fall war es dann doch kein Wunder, dass ich deutlich über dem Speicherlimit lag. Hat mich selbst ziemlich gewundert, wo die 2. Datei dann jetzt her kam. Aber nun gut, hab gestern direkt den Support angeschrieben wie ja auch schon geschrieben und die haben sich heute morgen direkt zurück gemeldet und das Hosting entsperrt, sowie ne kurze Stellungnahme dazu.

    Natürlich unpraktisch mit der Mail, aber auch gut zu wissen. Diese kam dann für die 80% nachdem entsperrt wurde. Alles ein wenig durcheinander. Hat mich halt aber auch sehr gewundert, dass es so viele Tage gedauert hat. Hab auch heute vormittag dann erst im CCP ne Abusemeldung. Vorher hatte ich schon alles erledgit, auch mit dem Support. Also da ist meiner Meinung nach noch Luft nach oben in deren System.
    Hat sich jetzt auf jeden Fall geklärt. Hab die 2. Datei gelöscht, mache jetzt noch die Hashes und dann sollte alles fertig sein. Dann kann ich das alte Hosting endlich abgeben und bin da raus. Geht mir ein bisschen auf die Nerven diese ganzen verschiedenen Systeme, wenn alles nur so halb ist..


    MfG

    Witzig, kurzes Update..:
    Also, zu dem Backup.. wollte gerade mal dran weiter arbeiten und das erledigen.
    Jetzt logge ich mich im WCP ein und dann kommt nur die Seite von Plesk, dass mein Hosting wegen Speicherüberschreitung gesperrt ist.
    Richtiger Fail. Erst jetzt wird es gesperrt, sowie die Tatsache, dass ich keine E-Mail erhalten habe. Ich schaue zwar gleich noch mal genauer nach aber da ich alles andere von NetCup immer sofort bekomme und sehe, denke ich einfach Mal, dass es keine Benachrichtigung darüber gibt. Finde ich dann echt schade, das wirklich so vorgegangen wird. Auch kein Anruf oder ähnliches. Da wurde hier im Forum ja auch schon mal drüber diskutiert. Also E-Mail finde ich schon das mindeste, mit einer Zeitspanne für die Korrektur. Telefon ist noch optional aber würde einen guten Support ausmachen.
    Die Tatsache, das eigentlich der Speicher meines Erachtens nach auch nicht überfüllt sein kann ist auch etwas komisch.
    Da eigentlich nur um die 205 - 210GB auf dem Webspace liegen sollten. Wüsste nicht, wo da mit Mal der Speicher auf 312GB ansteigen soll, obwohl das Hosting in dem Sinne nicht mehr benutzt wird.
    Gehe fast davon aus, dass der Speichermanager irgendwie mit den temporären Dateien vom Archiv packen gerechnet hat und nicht schnallt, dass der Speicher nicht mehr überschritten ist.
    Habe den Support angeschrieben und das auch alles geschildert sowie, dass man die Umgangsweise am besten zur Kundenfreundlichkeit und für weniger Support-Aufwand ändern sollte.


    :thumbdown::cursing::D

    Läuft bei euch xP


    Gerade mal wieder rein geschaut, war die letzten Tage etwas beschäftigt und wenig Zeit dafür. Sind auf jeden Fall praktische Infos und die Blake Summe mit install ist echt praktisch. Wenn die zeitlichen Unterschiede da so groß sind, werde ich das wohl eher austesten und verwenden.
    Habs tatsächlich immer noch nicht gemacht. Hab zum Glück bis Mai Zeit und es sind auch in dem Sinne "nur" private NextCloud Daten, die jetzt nicht unbedingt zeitnah wieder Online sein müssen. Werde ich mich die Tage auf jeden Fall mal mehr mit beschäftigen, da mich das natürlich trotzdem beschäftigt das fertig zu bekommen.
    Danke euch auf jeden Fall für die Antworten.
    Eine Sache die mich beim Webhosting noch beschäftigt, bzw. die evtl. verbessert werden könnte, wobei dies wahrscheinlich wegen CHROOT etwas umstaendlich und Sicherheitstechnisch schwierig ist, waere screen bzw tmux zum laufen zu bringen. Vielleicht hat da ja jemand ne Idee.


    MfG :)

    Danke, teste ich Mal aus.

    Bin Mal gespannt wie lange der für die Daten dann braucht.

    Also Mal kurz von mir.. hab nicht komplett alles gelesen ehrlich gesagt, aber die Tatsache, dass Gutscheincodes von den verschiedenen Webseiten nur für bestimmte Produkte in bestimmten Regionen erhältlich sind war mir nach Eingabe ziemlich schnell klar. Man sollte vielleicht vorher genauer lesen was man da einfach so bestellt. Klar sollte NetCup das noch offensichtlicher machen, damit es jeder sofort sieht aber nun ja.

    Und das NetCup die Server nicht unbedingt so umziehen kann ist auch erklärbar. Also die nehmen ja nicht den Rechner und fahren damit nach Wien und lassen den da laufen. Das war natürlich jetzt mit Absicht blöd gesagt, aber wenn die in Wien halt X Server haben wo halt XY an Hardware läuft, kann ich das nachvollziehen. Falls die dann in Nürnberg gerade Server genug frei haben und ein Angebot schalten um die möglichst schnell wieder zu vermieten, ist klar, dass dann auf anderer Hardware in Wien nicht einfach umgezogen werden kann.


    Also ich kann beide Seiten verstehen. Aber dir sollte auch auffallen, dass NetCup Gutscheine immer ein Produkt an sich sind und nicht einfach mit gewählten Produkten kombinierbar. Zumindest nicht alle. Wenn da steht, Server X für 3 Monate kostenlos, ist das halt genau der Server wie im Produktdatenblatt angegeben. Nur weil dann auf der Webseite ein Server ist, der andere Leistungen hat und du den wählst, hat das ja nichts direkt mit dem Produkt des Gutscheins zu tun. Außerdem solltest du generell aufpassen, da die Gutscheine nicht immer von Vorteil sind, wie du ja auch bei dir jetzt siehst. Da muss man schon die Produkte vergleichen.

    Die Gutschein-Produkte findest du auch nicht einfach so auf der Site. Die sind immer individuell mit dem Gutschein Code verknüpft.


    Außerdem kannst du meines Erachtens nach nicht Anexia direkt mit ins Boot von NetCup ziehen. Das sind immerhin noch 2 verschiedene Anbieter, die nur zusammen arbeiten bzw. NetCup in deren Backbone eingebunden ist. Nur weil Netcuo evtl. irgendwo Mist baut, heißt dass nicht, dass Anexia auch daran Schuld ist und gleichermaßen handelt oder in irgendeiner Art schlecht ist.


    MfG

    Du hättest die Daten z.B. auch per FTP transferieren können

    Meinst du direkt von Server zu Server?

    Wenn du am PC meinst, finde ich das naja etwas unpraktisch bzw. Mehraufwand. Da ich die Dateien erstmal runter laden müsste und dann wieder hoch laden. Außerdem hab ich gerade nicht Mal 105GB frei. Darum muss ich mich auch noch kümmern. Viel zu viel an Daten auf dem PC. Also download und Upload vom Server zum PC und zum anderen Server wieder uploaden ist denke ich mehr Aufwand als einfach direkt von Server zu Server mit ZIP. Kenne das, dass es bei anderen Hostern die Möglichkeit gibt das direkt über deren Control Panel einzuleiten oder direkt den ganzen Host hin und her zu schieben. Ist auch ganz praktisch aber ist mir bei NetCup so in der Art nicht bekannt.

    Ich halte es bei solch knappen Grenzen durchaus für möglich, dass der Platz kurzzeitig vollgelaufen ist und dein zip evtl. korrupte Daten beinhaltet.

    Naja sagen wir Mal so, ich hab 250GB wovon halt 105GB belegt sind und bisschen Kleinkram drum herum.

    Dass daraus temporäre Dateien, irgendwas um die 300GB entstehen, da kann ich ja nicht direkt was für.Theoretisch war ich dann mit 105GB plus Archiv von 100GB im Limit drin. Aber hatte damit auch gerechnet, dass hier Probleme entstehen können. Deswegen ja überhaupt der Thread, ob das normal ist.

    Müsste dann nicht eigentlich auch eine Rückmeldung über Fehler in der Shell kommen?


    Aber die Platten laufen ja nicht wirklich voll - sonst gäbe es ja die ganze Speer Problematik nicht - z.B. nach Nextcloud sind noch mehrere TB auf der Platte frei - das Limit meines Webhosting liegt aber bei 400GB - wenn ich das überschreite wird das Hosting gesperrt, die Platte an sich hat aber noch Platz

    Ja die Platten, je nach Server, haben wohl einiges an GB bzw. TB aber das Serverlimit kann ja dann einschreiten und sagen, ne ist nicht. Bei einem anderen recht bekanntem Hoster der halt nur Webseiten macht, war das so, dass man den Speicherplatz überschreiten konnte, somit waren alle Schreibvorgänge und der Webspace an sich Safe, sodass keine Fehler entstehen konnten. Doch danach wurde man vom Support angeschrieben, sich bitte darum zu kümmern um wieder unter das Limit zu kommen oder einen größeren Tarif zu buchen. Die waren sehr Kulant was das an ging.

    Ah, ich hatte dich so verstanden, dass dein Limit bei 250 läge.

    Ich würde trotzdem vor dem Löschen md5 Summen der Originaldateien bilden und mit denen der Zieldateien vergleichen.

    Achtung, anderer User. Mein Limit liegt bei 250GB.

    Wie bilde ich denn die Hashs der Dateien bzw. Ordner und vergleiche die am besten?

    Wüsste gerade nicht wie ich 105GB automatisiert Vergleiche.


    Es genügt ja, dass du in ne hard Quota reinläufst.

    Ich erzeuge aber solche Archive nach Möglichkeit eh nicht lokal, sondern pipe die durch ein ssh oder rsync.

    Damit kenne ich mich noch nicht so aus. Ist tatsächlich in dem Fall oder der Art die erste Sicherung und Umzug in der Größe.

    Müsste ich mich drüber einlesen.

    Müsste auch Mal schauen, wo ich mir gerade nicht sicher bin, wie man Befehle im Hintergrund laufen lässt. Hab ich tatsächlich auch noch nicht so gebraucht. Sonst habe ich einfach Screen benutzt, wenn etwas länger gedauert hat und ich das dann später wieder aufgegriffen habe 😅

    Gibt ja keine Hard Quote(zumindest nicht so wie es sein sollte) - sobald rüber wird das ganze Hosting gesperrt (sobald es erkannt wirst bis dahin kannst du die gesamte Festplatte nutzen) - dann bekommst du auch keine ZIP mehr runter

    Hmm auch nicht gerade praktisch oder Benutzerfreundlich.

    Also das man bei X GB drüber irgendwann sperrt, ok aber vorher vielleicht noch Mal melden bevor man das macht. Und dann das gesamte Hosting sperren finde ich auch relativ..


    Naja man muss halt auf der anderen Seite schauen, nur seinen Anteil zu benutzen. Ist halt wie es ist 😂


    MfG

    Okey, meinst du das ZIP nicht alles mit gesichert hat wegen dem Speicher oder einfach allgemein das da was fehlen kann? Hab die Daten noch auf dem Webhosting sowie das ZIP. Habe das ZIP dann auch mit knackigen 400 MegaByte/s 8| auf das neue Webhosting geschoben und zusätzlich wollte ich das nochmal auf meinem Root Server sichern, bis ich alles auf dem neuen Hosting eingerichtet und am laufen habe. Bis dahin behalte ich die Dateien noch. Habe auch noch einiges an Zeit, bis ich den Vertrag kündige. Hab das extra früh genug gemacht, da ich auch im Moment nicht immer so viel Zeit habe das alles Recht schnell umzusetzen.

    Danke noch für den Hinweis.

    Bin da mittlerweile ziemlich vorsichtig geworden. Unter Windows hab ich mir da früher schon einige Patzer erlaubt, die dann einiges an privaten Daten gekostet haben. War ziemlich ärgerlich. Seitdem schaue ich meist 2-3 Mal extra drauf ob alles da ist :D