Beiträge von KB19

    ich meine beim RS Cyber Quack LocalBlockStorage aktivieren zu können.

    Nun geht das nicht mehr. Irre ich mich oder wurde das geändert?

    Ging bei dem eigentlich nie? Bei einem von zwei RS X-Mas 2016 könnte ich es nach wie vor buchen. Stolze 8 GB als Maximalwert für fünf Laufwerke um 10 Cent pro Monat. :D


    der Piko kann das auch nicht trotz G11?

    Der ist auch ein G11s, die können wahrscheinlich wie die G10s so einiges nicht. ;)

    Der Snapshot wird in einen Bereich außerhalb Deines virtuellen Speichermediums geschrieben, darauf hast Du innerhalb Deiner VM gar keinen Zugriff. Die 50% Schwelle existiert ja nur, weil netcup nicht beliebig viel Speicherplatz für Snapshots verschenken kann. :)


    In Deinem Screenshot sieht man jedenfalls, dass Du über 90GB nicht partitioniert hast. Dementsprechend wird ein fstrim -va auch nichts bringen, weil das nur mit eingehängten Partitionen funktioniert. Warum das dann bei einer Optimierung im SCP nicht erkannt wird, weiß ich nicht. :/


    Du könntest mal Folgendes versuchen:

    • Im freien Speicherplatz eine neue Partition erstellen. (z.B. ext4)
    • Die neu erstellte Partition irgendwohin einhängen. (z.B. nach /mnt)
    • Nun ein fstrim -v /mnt ausführen.

    Sollte das nichts bringen, würde ich die neue Partition sicherheitshalber nochmals mit Nullen füllen und den Vorgang wiederholen. Sollte das immer noch nichts bringen, bitte nochmals eine Optimierung im SCP starten. Und wenn sich die Anzeige im SCP dann immer noch nicht ändert, kann wohl nur der Support helfen. ^^




    PS: Bei Terminalausgaben sind kopierte Inhalte (Copy & Paste) im Gegensatz zu Screenshots wesentlich einfacher zu analysieren. Die kann man dann bequem mit dem </> Button im Beitragseditor posten. ;)

    Ist das irgendein exotisches Dateisystem oder eine verschlüsselte Partition?


    Du könntest einmal versuchen, den freien Speicherplatz mit NULL zu füllen, z.B. mit dd if=/dev/zero of=/test bs=1M count=… status=progress. Danach die Datei löschen und nochmals fstrim -va ausführen.

    Hast Du ein normales Webhosting-Paket? Dann kannst Du dort sogenannte Externe Domains aufschalten. Das ist bis zu einer von Deinem Tarif abhängigen Freimenge kostenlos, jede weitere darüber kostet glaube ich einmalig fünf Euro: https://helpcenter.netcup.com/…ebhosting/externe-domains


    Dafür muss der Domain Registrar es Dir allerdings ermöglichen, dass Du beliebige eigene DNS-Records setzen kannst. Das ist mittlerweile zwar bei vielen der Fall, aber leider noch immer nicht bei allen. Ohne die von netcup geforderten DNS-Records ist eine Verknüpfung und Nutzung als externe Domain nicht möglich. Solltest Du einen VPS/RS o.ä. bei netcup haben, ist es natürlich wieder anders. Aber auch in diesem Fall geht ohne angepasste DNS-Records nichts…


    Oder liegen die Domains schon bzw. noch bei netcup und sind aktuell bereits mit einem Webhosting-Tarif verknüpft?

    Ich merke gerade, dass das "Webhosting Expert Light" schon ziemlich speziell war: 128MB Uploadlimit und 512MB (!) Memory-Limit für 19 Cent waren unschlagbar ^^


    Schade, dass der abgekündigt wurde, weil es noch ein PPA (Parallels Plesk Automation) Tarif ist. Der Ersatztarif hat (leider) nicht mehr so unüblich hohe Limits :S


    (Nehme ich netcup aber nicht übel! Zum Herumtesten reicht auch das neue "Webhosting 500 P2P" zum gleichen Preis locker aus.)

    Das würde doch aber bedeuten, dass ich mit FTP Zugriff über die IP dann auch auf die fremden Websiten gelangen könnte?

    FTP ≠ HTTP? Letzteres kennt einen Host-Header und SNI, beides ist bei FTP nicht gegeben. Bei FTP erfolgt die Zuordnung im System rein über den Benutzernamen und das Passwort.


    Bei mir steht bei Aufruf der Webserver IP auch nur "Domain noch nicht zugewiesen / in Zuweisung".

    Die IP-Adresse teilst Du Dir beim Webhosting mit anderen Kunden, die kann nichts Anderes anzeigen…


    Ich würde gern meine netcup Domain (nennen wir sie xyz.de) (die absichtlich den Nameserver von Cloudflare nutzt) weiter auf den ursprünglichen Ordnerpfad zeigen lassen, welchen die Domain zuvor verwendet hat. Konkret hatten sich die Domains xyz.de und yyy.de das gleiche Webhosting geteilt und zeigten nur auf unterschiedliche Dokumentenstamm-Pfade (/httdocsxyz/ und /httdocsyyy/). Jetzt habe ich die Nameserver für xyz.de auf Cloudflare geändert und Cloudflare Tunnels mit einer Subdomain zu nutzen. Die Hauptdomain soll aber bitte weiterhin auf den alten Dokumentenpfad zeigen.

    Ist das umsetzbar? Ich bin irritiert, da die IP ja von außen nichtmal auf die Website zeigt.

    Prinzipiell: Was genau hat das mit diesem Thread zu tun, der bereits älter als ein Jahr ist? Ein neuer Thread wäre wahrscheinlich zielführender :/


    Wenn Du eine Domain im Webhosting nutzen möchtest, muss sie im CCP irgendwie mit dem Hostingpaket verknüpft sein. Wenn externe Nameserver verwendet werden, kannst Du sie maximal als externe Domain hinzufügen. Wie das geht, steht im netcup Helpcenter: https://helpcenter.netcup.com/…ebhosting/externe-domains


    PS: Ich würde "solche" Domains ja lieber nicht als Platzhalter verwenden. Für diesen Zweck gibt es aus gutem Grund u.a. example.net/.org/.com ;)

    In der MAILCOW Chain existiert seit Anfang Februar eine Regel, die genau diesen Zugriff verhindern soll: https://mailcow.email/posts/20…release-2nd-february-2024


    Um das zu umgehen, müsstest Du DISABLE_NETFILTER_ISOLATION_RULE anpassen und selbst die entsprechenden Firewallregeln für die verbliebenen Ports

    6379/8983/12345 rebootsicher zur DOCKER-USER Chain hinzufügen. Andernfalls wäre Dein mailcow-System nicht mehr gegen CVE-2024-24760 geschützt!

    Da ich dann bei einem neuen Server eine neuere PHP-Version nutzen muss, und viele Webseiten und Scripte deshalb ändern muss, damit sie überhaupt mit neueren PHP-Versionen laufen, wird das ein ziemlicher Aufwand, aber der ist wohl nicht mehr vermeidbar.

    Ich weiß nicht, welches Betriebssystem Du verwendest, aber z.B. bei Debian/Ubuntu gibt es über ein inoffizielles Repo auch die alten PHP-Versionen: https://deb.sury.org/


    Das geht notfalls zurück bis PHP 5.6 und stammt vom gleichen Maintainer, der schon seit Ewigkeiten die offiziellen PHP-Pakete von Debian pflegt. Ich würde es zwar nicht empfehlen, uralte und nicht mehr unterstützte Versionen ewig weiterzubetreiben, aber so kann man die unausweichliche Migration wenigstens auf einen längeren Zeitraum verteilen und alles in Ruhe parallel testen. Für die MySQL/MySQLi Umstellung gibt es übrigens einige Wrapper.


    Viel Erfolg!

    In der Ankündigung stand, dass diese zum Preis des RS 9.5 angeboten werden würden. Ist denn für die neue Generation auch ein Sidegrade möglich?

    Auch das wird in den FAQ beantwortet:

    Kann ich meinen bestehenden Root-Server von Generation 9.5 auf Generation 11 upgraden?


    Nein, ein Upgrade von G9.5 (oder älter) auf G11 ist nicht möglich, da die neue Generation auf einer neuen Hardware betrieben wird.

    Bei den sogenannten JiffyBoxen basierend auf Xen des Mitbewerbers war es möglich, sich noch vor dem Installationsprozess zwischen einer Container- und einer Voll-Virtualisierungs-Installation zu entscheiden.

    Reden wir hier wirklich vom gleichen Produkt? Jene JiffyBoxen mit dem Controlpanel ursprünglich unter admin.j****b**.de, die im Mai 2024 eingestellt werden? Ich nutzte die JiffyBox seit sie eingeführt wurden und das wäre mir vollkommen neu. Ich habe sogar noch einen Account und könnte nachher nachsehen :/


    Es geht wohl nicht um die neueren VPS des gleichen Anbieters? Die heißen (afaik) nicht JiffyBox :)

    Jiffybox Cloudserver

    Die JiffyBox verwendet nicht KVM sondern Xen. Wenn ich das richtig im Kopf habe, war bei den dortigen Images standardmäßig nicht einmal ein Kernel oder Bootloader enthalten, weil das bei der verwendeten Virtualisierung nicht notwendig war. Einen eigen Kernel konnte man auf Anfrage zwar nutzen, aber das war dann trotzdem eher eine Frickellösung. Weiters sind die "Festplatten" dort eigenständige Devices und haben gar keine Partitionen.


    Wenn ich nicht komplett am Holzweg bin, ist es wahrscheinlich einfacher, Du installierst bei netcup das Betriebssystem Deiner Wahl neu und kopierst danach ausgewählte Konfigurationen und Daten manuell z.B. mittels rsync über SSH rüber.

    Je nach Bewegung zwischen 10 und 40 GB pro Tag.

    Bei 50 Mbit/s Uploadgeschwindigkeit reden wir da von einer täglichen Backupdauer von mindestens 30-120 Minuten. Nur für diese eine VM, bei Vollauslastung der Leitung. Da währenddessen laufend neue Aufzeichnungen hinzu kommen, wird es eher noch länger dauern. Selbst wenn man es stündlich laufen lässt, kommt man schnell auf 10% der Zeit, wo nur gebackuppt wird. Kann gut gehen, kann aber auch schief gehen mit PBS.


    Ich persönlich würde mir da wahrscheinlich eine andere Lösung überlegen und eher schauen, ob man die Aufnahmen nicht gleich in Echtzeit auf ein entferntes System spiegeln/streamen kann. Dann hat man wenigstens wirklich was davon, wenn es zu einem Zwischenfall kommt und der Server zuhause ebenfalls weg ist.