Posts by Schupp

    Das ist aber schon so, als würde man die Hoffnung nicht aufgeben, dass der Fahrraddieb das Fahrrad zurückbringt, oder?

    Hau doch mal einen raus wieso ich das aufgegebene Peering das Negativ bewerten sollte.z.B. eine Liste von direkten peerings bei Vodafone und inter Link, oder dadurch wegfallende Peerings.

    Man muss dafür aber Plesk nicht nutzen, wenn man fit auf der Konsole ist. Ich persönlich finde, Plesk macht das System einfach nur langsam.

    Ich benutze Plesk aus Komfort Gründen, nicht weil ich es seit 20 Jahren sowieso in der Konsole kann.. email, Updates etc. alles automatisch konfiguriert. (Ebenso ispconfig und keyhelp)


    Es mag Gründe geben weswegen man es anders macht, ich habe zum Beispiel wegen der Sicherheit die Owncloud in /var/www/owncloud neben Plesk konfiguriert. Ich wollte den Owncloud Daten Ordner absolut ausserhalb des Plesk verwalteten Hostings haben, obwohl es ein Unterordner der Domain ist.


    Was meint BorgQueen?


    Alles durchgehend selbst konfigurieren und bei Updates schlackern, oder lieber ein Panel nehmen?

    Denn insbesondere Nextcloud liebt nicht immer die neuste php Version.

    Man würde ja eigentlich auf ein "Verwaltungs Panel" wie z.B. Plesk zugreifen wenn man so ein vorhaben hat.


    Im Prinzip unterstützten viele der Panel 7.4.33 und sogar tiefer bis hoch zur neuesten Version.


    Dank PHP-FPM kann man z.B. in Plesk über Subdomains mit verschiedenen PHP-fpm Prozessen auf das gleiche Target zeigen.


    z.b.


    meinedomain.de -> 20 Prozesse auf /root

    owncloud.meinedomain ->20 zusätzliche Prozesse auf /root/owncloud


    Ich habs nich nicht mit PHP-Versionen ausprobiert, theoretisch könnte das aber möglich sein.

    Ja, aber eben das meine ich ja damit. Dieser Vergleich ist, zumindest in Bezug auf sämtliche netcup Produkte, irreführend für den Kunden, wenn netcup doch keine echten Dedicated Server anbietet und alles vollkommen virtualisiert ist.

    Dafür muss man den Werdegang von Rootservern mitbekommen haben.


    Als es noch keine "HW-Virtualisierung" gegeben hat, gab es nur "unstabile" VPS. Später sind die "Rootserver mit dedizierter Hardware" dazugekommen. VPS hatten früher die Nachteile eines geteilten Kernels in einem übergeordnetem Layer. Die dedizierte HW war den VPS weit überlegen. (Heute ist ja quasi beides gleichwertig, wobei der VPS dann nur dynamische Ressourcen hat.)


    Der Rest rund um Virtualisierung sind Nebeneffeke.


    Mich würde mal ein Benchmark von Netcup interessieren.. wie die Ergebnisse von 8*RS4000 auf einem Host (9645) mit Dauer Geekbench auf den Guests aussehen. (Worstcase, mir fallen da ganz viele Bottlenecks ein wenn es jeder übertreibt, als wäre es eine gemietes Rack.)

    "Keine anderen Nutzer auf der Hardware" stimmt ja schlichtweg einfach nicht

    Also es kommt drauf an, ich sehe das eigentlich eher locker.. früher gab es nur VPS oder "Hardware".


    Die Vollvirtualisierung sämtlicher Hardware Komponenten ist dann eher später auf dem Markt aufgetaucht, als die Hardware so etwas auch unterstützt hat.


    Quasi ist ein RS eine Voll"w"irtualisierte Hardware :D


    Es gab schon immer Anwendungen die eine "echte Hardware" vorausgesetzt haben (z.B. Gaming Server mit besonderen Kernel Anforderungen, man benötigt jeden freien "CPU-Tick" ohne Verzögerung.)


    Ich setze übrigens den "Gaming-Fall" gleich mit "ich mache einen Geekbench, bei nem RS müssen CPU Full-Load, 2.5Gbit Netzwerkanbindung und 2400MB/s NVME funktionieren." gleich, mein Gott dann hol dir für das 5 fache eine Colocation.


    Bau Dir einen Tower der das kann und stell den in das Colo-Rechenzentrum. Viel Spaß.

    Bei Nextcloud kommt es auf die User und Dateimengen an..


    Video Streaming ist sowieso die "Kür" beim bereitstellen von Online Diensten.. Echtzeit+Zuverlässige Latenz+Datenmengen


    Nextcloud macht erst Probleme bei zuvielen Dateien, Datenmengen + viele User.. wenn das aufeinander trifft, haben beide arge Probleme.

    Das ist ja gerade der springende Punkt.

    Ich dachte eher an einen Workaround. Z.b. in der rettungskonsole eine behelfspartition erstellen, Image mit dd draufziehen und normal installieren.. (Ich habe das vor Ewigkeiten Mal gemacht.)


    Keine Ahnung was heutzutage dagegen sprechen würde. Natürlich gibt es zig möglichkeiten wieso das nicht funktionieren könnte.

    Das kann ich dir nicht sagen. Ich hatte mir testweise einen VPS gemietet (man hat ja 30 Tage Rückgabe, was auch wunderbar funktioniert).... festgestellt, dass sowas "banales" wie eine eigene ISO nicht angeboten wird und dann war es für mich im Prinzip schon wieder erledigt.

    Das eigene Iso ist halt "nice to have".. was spricht gegen selbst hochladen?

    Zusammengefasst also: Man nimmt Linux, weil man zwar einen Rechner nutzen will, der zu alt für Windows 11 ist, aber kein System, das alte Hardware länger unterstützt, weil das nur Liebhaberei wäre? Das klingt doch ein bisschen nach „das Ergebnis steht fest, der Rest hängt von der Frage ab“.

    Ich habe auch schon versucht, 10 Jahre alte Laptops mit Linux zu "Retten"...


    Letzendlich bin ich auf Refurbished Laptops gestoßen.. gerademal 150€ für einen 1A Buisness Laptop der Windows11 fähig ist.. So schnell kann man aufgerechnet zu einem Stundenlohn garnicht rumbasteln.


    Dazu gibt es zum Beispeil auch aktuelle neue Laptops mit nem i5-1315U (2P+4E Cores) für 300€ (muss selbst zugeben, das der i5-1335U für 100€ Aufschlag echt der Burner ist 2P+8E Cores.)


    Ich habe vor 20 Jahren mit RedHat angefangen, bin vor 10 Jahren zu Ubuntu gewechselt und habe heute doch Fedora,Ubuntu und Debian+Mate auf den PCs/Laptops.


    Auf den Servern bin ich irgendwie bei Debian geblieben.

    Ich halte das ganze "Distro Bashing" und "Linux VS Windows" für ein "Mode Problem".


    Das ist wie AMD vs Intel auf dem Desktop. Der eine hat seit 20 Jahren ohne Ärgernisse Intel und der andere AMD. Viel zu diskutieren gibt's da im Prinzip nicht. (um herauszufinden wer nun besser da steht.)


    Ich sehe bei jedem Kauf beide Möglichkeiten.

    zum Betreff Server Generationen, Leistung und Preise..


    Ich verstehe hier nicht so ganz wieso alles immer so kleinlich verglichen wird, bei mir wird in der Produktiv Umgebung wegen 99,9% Verfügbarkeit erst bei einem logischen Grund gewechselt. RS4000+RS8000+RS2000


    z.B. G9 mit HDD zu G11 SSD/NVME plus klarer Vorteile, nebenbei wird das auslaufende Debian aus dem LTS neu mit aktueller Version aufgesetzt.


    Das ist dann mal ein Wochenende Vorbereitung, Sonntag Nacht bei geringstem Verkehr wird umgezogen und man hat wieder 3-5 Jahre Ruhe.


    Wenn ich langeweile habe, wird mal zwischendurch ein Großes Update durchgeführt.


    Ich meine ich kann mir jetzt auch für 60€ nen Hobby RS8000 holen, stundenlang benchmarken und hier mein Leid klagen 8o (Vielleicht mal keine schlechte Idee.)

    Aber wahrscheinlich ist dem nicht mehr so :D

    Denke das fällt unter Geschmackssache..


    Keyhelp ist irgendwie "Sorglos" und unanspruchsvoll einfach. Bei ISP-Config sag ich mal, Stabil und kostenlos. (Bei ISP-Config kannst du überall rumwerkeln, musst das nur in die Blacklist aufnehmen oder Backuppen)


    Wenn es unbedingt ein Admin Tool sein soll, dann würde ich Froxlor empfehlen.

    Das hatte ich als erstes, davon bin ich bei irgendeinem Versionssprung weg (knapp 10 Jahre her) Das war irgendwie "Auf sich selbst unkompatibel".

    Das muss man halt abwägen ob es Sinn macht..


    Letzendlich ist ein gutes Plesk System auf Basis eines Plesk Images gefühlt wie ein Managed Server.


    Das einzige das mich einige male gewundert hat, eigentlich erwartet man von so einem System vernünftige "Sorgenlos" Betriebssystem Upgrades. z.B. Debian Buster zu Bookworm.


    Ich selbst finde Keyhelp und ISP-Config auch gut.

    Ich sehe ARM schon als zukunftsweisende Technologie..


    Da besteht nur das Problem, das die Performance/Effizienz ausgewogen ist.. die Performace hört an der stelle auf, an der die Effizienz anfängt.


    Man muss abwägen, ob der Anwendungsfall von einem ARM gebremst wird oder nicht.

    Ich habe soweit es mir nicht entfallen ist, Privat und als Admin. noch keinen Server gesehen der migriert wurde...


    Vielleicht liegt das einfach daran wieviele Server man hat :D


    Manchmal stelle ich mir vor, das die server Hoarder die keine echte Aufgabe für Ihre server haben, die jenigen sind die die Benchmarks machen und migriert werden :D

    Ich komme nur mit Plesk, meiner Meinung nach einer gut besuchten Webseite und einer Owncloud mit 30 Usern auch nicht über 3TB.


    Große Downloads gibt's da aber keine, da muß man nur auf genügend Cores aufpassen, falls hungrige PHP Prozesse ausversehen gleichzeitig alle Cores benutzen.