Beiträge von julian-w

    Hast du php schon mal selbst kopiliert? Mit den Skripten von phpfarm ist das nur eine Befehl in der Konsole, und das war es. Du musst nix vorher runterladen oder ähnliches (es kann sein das man vorher die Build-Umgebung installieren muss, aber das ist ja auch nur ein Befehl in der Konsole). Die Einbindung in Apache ist auch recht problemlos, gibt auch viele Anleitungen dazu im Internet. Ich denke das geht schneller wie zwanghaft zu versuchen ein veraltetes OS zu installieren.

    Denn ich habe heute morgen das Sonderangebot "Root Server 2000 Plus" bestellt. Das Produkt wird mit "4x250GB Festplatte" beworben, aber im VCP werden nur 500 GB angezeigt.


    Deine Daten werden in einem RAID10 gespeichert (steht auch im Angebot so), weshalb letztlich nur 500GB (bzw 80GB bei der SSD) nutzbar sind. Die restliche Kapazität geht für die Spieglung deiner Daten drauf, damit es beim Ausfall einer Festplatte zu keinem Datenverlust kommt.


    Also bekomme ich die Prozessorkerne (bzw. die Threads) fest festzugewiesen (ohne Virtualisierung) und die restlichen Ressourcen des physischen Rechners werden unter den Kunden, die auf der Maschine sind aufgeteilt?


    Nunja der RAM ist auch noch exklusiv dir zugewiesen und die Größe deiner Festplatte auch ;) Letztlich teilt man sich im Grunde nur die Netzwerkschnittstelle und die "Zugriffszeit" auf der Festplatte, wobei netcup für die Netzwerkschnittstelle durchschnittlich 200 MBit/s Bandbreite angibt (man kann deutlich mehr erreichen) und für die Festplatte auch mal mindest IOPS garantieren wollte, weiß aber nicht was da aktuell Stand der Dinge ist.

    Edit bei used steht 68 nicht 31 Julian


    "used" bedeutet der insgesamt genutzt Speicher, inkl. der Daten die im Buffer und Cache sind. Um den "realen Verbrauch" zu ermitteln, muss man daher diese beide Werte abziehen, womit man auf den Wert von 31 kommt (bzw. kann man auch den Wert aus der zweiten Zeile nehmen, in dem Fall 30MB. Die Differenz liegt wohl an Rundungsfehlern bei der Anzeige).


    Linux rechnet den RAM, den es für Cache und Buffer nutz, bei "used", obwohl er quasi nicht "fest genutzt" wird, sondern falls eine Anwendung mehr RAM benötigt, direkt freigegeben werden kann. Daher stehen in dem Fall noch maximal 85MB RAM für eine Anwendung zur Verfügung (und nicht 48MB).

    Hab mal Debian Jessie als minimal-Image auf einem VPS 10 G7 mit 128MB RAM installiert. Um weiter RAM zu sparen, hab ich folgende Optimierungen vorgenommen:


    • Die IP statisch konfigurieren, damit nicht der DHCP-Dienst startet
    • Ich hab exim4 komplett deinstalliert, ich denke mal E-Mails braucht man auf einem so kleinen System nicht und falls doch sollte sowas wie ssmtp ausreichend sein. Also einfach folgenden Befehl in der Konsole ausführen:

      Code
      apt-get remove exim4 exim4-base exim4-config exim4-daemon-light


    • rpcbind entfernt. Dieser Dienst wird z.B. zum mounten von NFS-Shares benötigt. Falls ihr NFS nicht nutzt, könnt ihr den Dienst einfach entfernen:

      Code
      apt-get remove rpcbind



    Nach einem frischen Reboot sieht die Speicherauslastung dann wie folgt aus:


    Code
    # free -m
                 total       used       free     shared    buffers     cached
    Mem:           116         68         48          4          7         30
    -/+ buffers/cache:         30         86
    Swap:         3899          0       3899


    Somit braucht Debian 31MB RAM 8) Hätte nicht gedacht dass man so weit runter kommt, bin mal gespannt wie gut simple Monitoring-Dienste laufen,

    Hallo,


    netcup hat es ja jetzt geschafft, Server für unter 1€/Monat anzubieten, bzw. ab 0,19€/Monat (zumindest während des Aktions-Zeitraumes). Nun wollte ich mal Fragen ob und was ihr damit so vorhabt?


    Ich hab mir z.B. den "VPS 50 G7" für 0,79€/Monat gebucht und hab ihn für meinen privaten DynDNS-Dienst eingeplant. Dafür sollte er denk reichen, die paar Domains und Anfragen am Tag zu verarbeiten :D


    Aber was könnte man z.B. mit dem "VPS 10 G7" anfangen, 128MB RAM sind schon verdammt wenig, genau wie 0,19€/Monat... :rolleyes:


    Freu mich schon auf ein paar Anregungen/Idee/Realisierungen von euch :thumbup:


    Viele Grüße
    julian-w

    1GBit Netzwerkkarte: oberstes Limit: 80 Mbit/s / 15 Minuten.
    Kann man dann bei den vServern mit vcore und 100Mbit Netzwerk auf ein Limit von 8Mbit/15 Minuten schließen?


    Wie kommst du darauf das für die VPS-Linie das Limit nur 8 MBit/s betragen würde? Auch dort sollten eine Limitierung erst eintreten wenn du mehr wie 80 MBit/s im 15min-Mittel Bandbreite belegst.
    Der Unterschied ist nur das du bei den root-Servern eine 1000 MBit/s-Anbindung hast, im Gegensatz zu den VPS-Servern, d.h. dir steht eine höhere Peak-Bandbreite zur Verfügung und du hast auch eine schneller Anbindung z.B. zum Storagespace.

    Ich hab hier mal die Benchmark-Ergebnisse als Tabelle zusammengefasst, hoffe das passt soweit :rolleyes:


    Benchmark RS 2000 SSD RS 4000 SSD RS 6000 SSD RS 8000 SSD
    CPU-Kerne 2 4 6 8
    RAM 8GB 16GB 24GB 32GB
    Unix Benchmark (1 parallel copy of tests) 744.0 738.9 735.0 1584.6
    Unix Benchmark (alle CPU-Kerne) 1655.4 3039.8 4428.6 6420.0
    hdparm -tT --direct /dev/vda (cached) 1715.13 MB/sec 1458.08 MB/sec 1416.36 MB/sec 1160.44 MB/sec
    hdparm -tT --direct /dev/vda (disk) 931.98 MB/sec 878.42 MB/sec 880.95 MB/sec 949.02 MB/sec
    hdparm -tT /dev/vda (cached) 8391.05 MB/sec 9512.52 MB/sec 9405.93 MB/sec 9706.98 MB/sec
    hdparm -tT /dev/vda (bueffered) 694.98 MB/sec 676.96 MB/sec 775.92 MB/sec 650.76 MB/sec



    Eine Frage hätte ich zu den Single-Core Werten: Warum sind die unterhalb der RS 8000er-Serie so niedrig? In der Ausgabe steht auch "System Benchmarks Index Score (Partial Only)", bei dem RS 8000 fehlt die Angabe "(Partial Only)"? Ich habe leider keine Ahnung von unixbench, aber liegt da evtl. ein Fehler vor? Weil normalerweise müssten doch alle im Single-Core-Test sehr ähnlich Abschneiden oder? ?(
    Ein schnelles googlen gab auch leider keine Aufschlüsse darüber was "Partial Only" bedeutet, man findet nur endlos viele Logs von Benchmarks...

    Hallo,


    ich würde gerne folgendes Feature für das CCP Vorschlagen:


    Es wäre toll wenn man Domains "gruppieren" könnte, anstatt das einfache alle sortiert untereinander auftauchen. Sobald man mehrere Projekte/Kunden/... in einem Account hat und damit auch mehrere Domains wird es doch schnell unübersichtlich, wozu welche Domain gehört. Daher fände ich es toll wenn man "Gruppen" definieren könnte und jede Domain einer Gruppe zuordnen kann. Würde ja schon reichen wenn unter dem Suchfeld ein DropDown mit den angelegten Gruppen ist und man jeder Domain unter Übersicht oder Verwaltung eine Gruppe zuordnen kann. Dann bräuchte man nur noch eine extra Seite in welcher man Gruppen definieren und löschen kann.


    Im Grunde könnte das Schema z.B. so aussehen:

    • Projekt A

      • domain1.de
      • domain1.com


    • Projekt B

      • domain2.de
      • domain3.de
      • domain4.de


    • Kunde 1

      • domain5.de
      • domain-5.de
      • domain5.com


    • domain6.de
    • domain7.de
    • domain8.com


    Unter/Neben dem Suchfeld wäre dann ein DropDown Menü mit z.B. folgenden Einträgen:

    • alle Domains (11)
    • Projekt A (2)
    • Projekt B (3)
    • Kunde 1 (3)
    • ohne Zuordnung (3)


    Wäre toll wenn sowas in nächster Zeit umzusetzen wäre, sollte ja nicht all zu viel Arbeit sein :whistling:
    Zudem würde ich mir auch im CCP noch ein Kommentar-Feld bei den Produkten unter Übersicht wünschen, in welchem man einfach einen kleinen Text schreiben kann. Sobald man mehrere Produkte vom gleichen Typ hat ist es doch schwere diese zu Unterscheiden, ein kleines Textfeld mit eigenen Kommentar ist da sicherlich hilfreich :thumbup:
    Die Luxus-Variante wäre natürlich auch eine Funktion ähnlich der Spitznamen im VCP, aber das dürfte wohl etwas mehr Arbeit sein.


    Vielen Dank schon mal und viele Grüße
    Julian

    Also so viele kritische Rückmeldung bei einer Produkteinführung bei netcup hab ich noch nie erlebt 8|


    Ich bin aktuell auch auf der Suche nach einem kleinen aber feinen vServer für mich privat (TS3, DDNS, Seafile und eine kleine Status-Seite, also nichts Weltbewegendes).
    Der alte, wohl im Forum sehr beliebte, Root Server L mit den 4 dezidierten CPU-Kernen bot wohl vielen die "Sicherheit", dass die CPU-Leistung da ist wenn man sie brauchen sollte. Man hatte den Luxus nicht auf vCores "vertrauen" zu müssen (was nicht heißen soll, dass sie nichts taugen bei netcup).


    Jetzt aktuell überlege ich auch, ob ich einen "mittleren" VPS oder doch den kleinsten root-Server hole. Mit den vCores habe ich aber leider sehr schlechte Erfahrungen bei einem anderen Anbieter gemacht, zum Glück war es ein Studentenprogramm (das es nicht mehr gibt): der mittlere vServer für 1€/Jahr statt 9€/Monat, aber gute Werbung war das ganz und gar nicht für den Anbieter mit dem blauen & :thumbdown: Und im Internet liest man meist auch nicht unbedingt gutes über vCores, schlechte Leistung, überlastete Wirt-Systeme, weshalb möglicherweise das Vertrauen in die vCores (noch) nicht vorhanden ist. Anders kann ich mir Aussagen wie "dezidierte Kerne oder nichts" nicht erklären.


    Aber gerade für die Leute ohne Vertrauen in vCores und kleinem Budget (da Hobby) sind die neue Tarife doch wesentlich besser :wacko: Während man früher erst ab 14,49€ (Root-Server L) dezidierte Kerne bekam, bekommt man heute schon ab 6,99€ einen dezidierten Kern und einen Tarif höher für 12,99€ 2 dezidierte Kerne. Wer jetzt 4 möchte muss leider etwas tiefer in die Tasche greifen das stimmt :whistling: Aber für kleine (Hobby-)Projekte die dezidierte Kerne wollen/brauchen/mögen ist es doch jetzt besser wie vorher :thumbup:


    Von daher bin ich einfach auf Benchmarks gespannt, wie sich die VPS-Server schlagen werden gegen die Root-Server, dezidierte Kerne gegen vCores 8)


    netcup:
    Einen kleinen Wunsch hätte ich aber noch bei den Root-Servern: aktuell gibt es ja eine Fair-Use Traffic Flat, wenn man 80 Mbit/s im 15min Mittel überschreitet wird gedrosselt. Alternativ bietet ihr auch dezidierte Netzwerkkarten an, womit diese Reglung entfällt. Preislich kostet dies aber ein Vielfaches des kleinsten root-Server und auch der leistungsstärkste root-Server wird im Preis dadurch mehr wie verdoppeln. Diese Lösung richtet sich also wohl eher an sehr professionelle Anwender.
    Momentan löse ich das "Problem", nicht ausversehen gedrosselt zu werden so, dass ich die komplette Bandbreite des Servers per Software limitiere, Tipps dazu gibt es ja hier im Forum. Aber irgendwie ist die Lösung nicht sonderlich optimal oder "schön".
    Könnte man daher nicht als Option anbieten, die Netzwerkkarte bei root-Servern auf 100 MBit/s zu limitieren und dafür die 80 MBit/s Regel entfallen zu lassen? :rolleyes:

    Edit: Scheinbar sind die vServer auch nur für 12 Monate buchbar mit 6 Monate bezahlen, wenn dem so ist dann ist das für mich auch vom Tisch.


    Wie kommst du darauf? Wenn ich auf die Links der Root-Server klicke sehe ich zumindest Angebote für 1/6/12 Monate Laufzeit.
    Außerdem ist bei allen "Root-Server" Produkten die Mindestverfügbarkeit von 99,6% auf 99,9% erhöht worden.


    Aber mit dem Speicher schließe ich mich dir an, suche schon seit längerem einen Server mit "viel" (um die 500GB) Speicher (ich brauche nur wenig Rechenleistung).
    Könnte man nicht einmal einen Server mit einer "kleinen" SSD (20GB) und großen HDD rausbringen? Für Windows wäre sowas wohl eher ungeeignet, aber für Linux doch perfekt. OS und Datenbank auf die SSD, evtl noch auf der SSD einen kleinen Cache für oft angeforderte Dateien, und alles andere auf die HDD (Backups/Repos/Download-Angebote/Mediendateien/...).


    Aber die Diskussion über einen solchen "Speicher/Backup-vServer" gab es ja schon mal hier im Forum leider brauchen wohl zu wenige Leute so etwas :whistling:

    Also mir persönlich würde es schon reichen wenn, man den Button "Backupspace: Bestellen" einfach umbenennt in z.B. "Backup-Option auf externem Storage: Bestellen".


    Dann wäre mir sofort klar, dass hier nicht zusätzlicher Speicherplatz erworben wird sondern rein die Funktion Backups automatisiert anzulegen und das Privileg diese auf einem externen Storage zu speichern.

    können Sie beschreiben wie Sie auf den Gedanken gekommen sind? Das steht ja nirgendwo. Oder übersehe ich etwas?


    Wenn ich den Tarif ohne Backup bestelle, stehen mir der Speicherplatz voll zur Verfügung. Wenn ich nun einen teureren Tarif unter dem Punkt "Backupspace" kaufe, war ich schon in der Annahme, dass der Backupspace inklusive ist, und ich nicht hinterher einen "Expert Backup M/2" hab. Weil sobald ich mehr wie 25GB belege ist ja ein vollständiges Backup nicht mehr möglich. Auch das die Aufpreise proportional zum Speicherplatz sind bestätigte mich in meiner Annahme.


    Ich stimme Ihnen zu, es steht nirgendwo explizit, dass der Backupspace nicht angerechnet wird, aber steht auch nirgendwo das man die Backups von den 50/100/250GB abziehen muss. Auf der Hauptseite bei "Details + Vergleich" steht bei dem "i" neben Speicherplatz auch nicht das der Backupspace angerechnet wird, aber gut alle dort aufgeführten Tarife beinhalten sowieso keine Backup-Option.
    Und ansonsten bin ich es wohl von anderen Anbietern gewohnt, wenn diese Backups gegen Aufpreis anbieten, das ich mit diesem Aufpreis meist den zusätzlichen Speicher für Backups bezahle.


    Von daher fände ich es schon sinnvoll es irgendwo explizit zu erwähnen, das nicht separate 50/100/250GB zur Verfügung gestellt werden, sondern dass die Backups auch auf den vorhanden Speicherplatz angerechnet werden (und "wenig-Nutzer" dann wohl auch mehrere Backups vorhalten können).

    Das würde dann aber im Umkehrschluss bedeuten, dass Sie zwei Produkte bestellen müssten, da das eine dann reiner Backupspace wäre. Verstehe ich das richtig?


    Der "normale" Tarif verfügt ja über die 50/100/250GB für Website, E-Mail etc. und hat keine (integrierte) Backup Funktionalität.
    Ich dachte, wie oben erwähnt, dass die Tarife "Expert Backup M/L/XL" einmal den üblichen sehr üppigen Speicher besitzen und zusätzlich nochmal die gleiche Größe auf einem externen Storage für Backups.


    Daher frage ich mich jetzt auch wie die Backup Tarife funktionieren? Liegt da gleich der ganze Speicher auf einem externen Storage? Aber dann ist doch die Redundanz weg, falls es auf dem Storage zu einem Totalverlust kommt?

    Alles klar, dann habe ich das immer falsch verstanden, tut mir Leid für die Fehlinformation.


    Wenn man im Produkt auf "Backupspace: Bestellen" klickt, klingt das für mich so, als ob ich "extra" Backup-Space bestelle.
    Bei "Details + Vergleich" steht beim Mousehover für Speicherplatz "Ihr Speicherplatz in der Cloud für Website, E-Mail Postfächer und Datenbanken". Aber gut, bei den Produkten ist ein Backup sowieso nicht enthalten.

    der Sinn des Tarifes (und des 2,50 EUR Mehrpreis) erschließt sich mir irgendwie nicht.
    wenn ich also Webseiten habe, welche zusammen mehr als 25GB beanspruchen, kann ich kein Backup mehr durchführen, richtig ?


    Doch kannst du.
    Soweit ich das versteh hast du die normalen 50GB für Webspace/Datenbanken/E-Mail etc. und zusätzlich nochmals 50GB Speicher auf einem externen Storage als Backup. Also insgesamt 100GB, wovon 50GB für Webseite etc. sind und 50GB extern als Backup.