Storagespace - Bis zu 10 mal kostenlos transferieren

  • Ein weiterer Vorschlag:
    man könnte intern die Bandbreite und nicht das Datenvolumen begrenzen.
    Wenn beispielsweise der Zugriff auf 10 oder 5MBit/s begrenzt ist, so kann man problemlos seine Backups machen (ist ja meist egal, wenn die etwas länger laufen),
    und es könnten mehr Kunden gleichzeitig ihre Transaktionen ausführen.


    Dies fände ich für den internen Bereich einen fairen Deal mit dem ich mir denke ich auch einen Storagespace holen würde.

  • Wie wäre es den mit IP-SAN? Wozu den Storagespace von Aussenerreichbar machen? Baut doch in jeden Server ne 10Gbit Karte rein und kapselt das in einem eigenen LAN dediziert vom User-Traffic. Damit braucht man keine Beschränkungen für irgendwas der Nutzer zahlt nur für den Space und Betrieb, hat dazu noch schön power :)

  • Man kann Cloud-Space, der WebDAV zur Verfügung stellt auch mounten, mit davfs2, siehe Ubuntu-Wiki.
    Der andere Anbieter, also ein Cloud Drive, dessen Name ich nicht nennen will, der billiger ist als dieser storagespace hier, der bietet das nämlich an und hat übrigens keinerlei Traffic Limit.
    Da werde ich jetzt 100 GB Cloud ordnern und das mal probieren.

  • Ich will mich mal kurz einklinken. Ich lese hier die ganze Zeit mit und finde hier ist seitens netcup Verbesserungsbedarf.


    Für mich ist das Angebot nicht wirklich transparent. Der Kunde wird meiner Meinung nach ein wenig in die Irre geführt. Leider sind nicht alle Kunden im Forum unterwegs und bekommen somit auch nicht die genauen Einschränkungen mit.

  • Guten Morgen,



    vielen Dank für Ihre Rückmeldungen. Gerne beantworte ich Ihnen Ihre Fragen.

    Quote

    Könnte man das nicht ins Angebot hinein schreiben?

    Eventuell übersehe ich etwas oder unsere Formulierung ist nicht verständlich. Im Angebot steht aktuell:

    Quote

    Die abgelegten Daten können je Monat insgesamt zehn mal kostenlos transferiert werden.

    Ist diese Textstelle bekannt? Was können wir hier verbessern?

    Quote


    Sieht man den verbrauchten Storagespace-Traffic eigentlich mittlerweile im CCP?

    Dieser wird im CCP (noch) nicht angezeigt. Wir empfehlen hier den Traffic über ein virtuelles Interface in dem eigenem System zu accounten.

    Quote

    man könnte intern die Bandbreite und nicht das Datenvolumen begrenzen.


    Wenn beispielsweise der Zugriff auf 10 oder 5MBit/s begrenzt ist, so
    kann man problemlos seine Backups machen (ist ja meist egal, wenn die
    etwas länger laufen),


    und es könnten mehr Kunden gleichzeitig ihre Transaktionen ausführen.

    Der Vorschlag ist gut. Allerdings stellen wir echte NFS-Volumes zur Verfügung. Hier könnten wir eine Traffic-Limitierung nur über Firewallregeln steuern was eine so große Rechenlast auf dem Storagecluster erzeugen würde, dass dieser vermutlich nicht mehr nutzbar ist. NFS sieht hier von Haus aus keine Limitierung vor. Daher können wir Stand heute so etwas nicht umsetzen.

    Quote

    Wie wäre es den mit IP-SAN? Wozu den Storagespace von Aussenerreichbar
    machen? Baut doch in jeden Server ne 10Gbit Karte rein und kapselt das
    in einem eigenen LAN dediziert vom User-Traffic.

    Ich denke das die meisten unserer Kunden so etwas nicht bezahlen würden. Auf Anfrage stellen wir so etwas bereits schon heute im PRO-Bereich bereit. Der Traffic wäre hier allerdings auch nicht kostenlos, denn 10 GBit/s sind bei der Kundenanzahl die wir haben auch schnell erreicht. Stand heute setzen wir bereits auf ein ähnliches System, mit der Erweiterung das dieses auch von extern erreichbar ist. Der externe Traffic ist hier nicht wirklich das Problem. Teuer ist der Traffic vom Storagecluster zu dein einzelnen Servern bei uns.

    Quote

    Man kann Cloud-Space, der WebDAV zur Verfügung stellt auch mounten, mit davfs2, siehe Ubuntu-Wiki.


    Der andere Anbieter, also ein Cloud Drive,
    dessen Name ich nicht nennen will, der billiger ist als dieser
    storagespace hier, der bietet das nämlich an und hat übrigens keinerlei
    Traffic Limit.


    Da werde ich jetzt 100 GB Cloud ordnern und das mal probieren.

    WebDAV hat im Vergleich zu NFS viele Nachteile. Wenn es rein um den Preis geht empfehle ich ein Webhostingpaket oder einen anderen Root-Server zu nehmen und den zu mounten. Selbst FTP lässt sich mounten. Die Vorteile von NFS und einem verteilten Storage gehen dann aber verloren. Zudem bietet unser Storagespace eine unbegrenzte Skalierbarkeit und eine nutzungsbasierte Abrechnung. So etwas ist in der Regel teurer wie unser Angebot. Nur ein paar große Anbieter auf dem Markt bieten so etwas überhaupt an.

    Quote

    Für mich ist das Angebot nicht wirklich transparent. Der Kunde wird meiner Meinung nach ein wenig in die Irre geführt.

    Der Storagespace ist ein komplexes Produkt. Wir probieren dieses so verständlich wie möglich zu präsentieren. Alle vertragsrelevanten Daten nennen wir im Angebot. Können Sie sagen wo genau Sie sich in die Irre geführt fühlen? Uns ist es sehr wichtig das unsere Angebote verständlich sind.



    Mit freundlichen Grüßen


    Felix Preuß

  • Hallo in die Runde,


    interessante Diskussion. Vielleicht könnte man ja als Kompromiss einen weiteren vServer anbieten, der etwas mehr Fokus auf Speicherplatz hat. Momentan sind die vServer recht gut ausbalanciert. Wenn man jetzt wirklich dem Vorschlag von Herrn Preuß folgen würde und einen zusätzlichen vServer mieten würde, der im Grunde nur als Storage für andere Server dient, hätte man im Moment relativ viel "Leistung" verschenkt. Sinnvoll wird das ganze ja erst ab dem vServer M mit 240 GB Sata Festplatte. Aber selbst da hat man mit 6 RAM schon mehr als man eigentlich für einen Storage Server bräuchte. Wie die genauen Spezifikationen aussehen könnten, ist natürlich schwer zu sagen. Das muss ja schließlich auch noch für netcup rentabel sein. Aber eine Nachfrage sehe ich hierfür schon, gerade wenn man diese Diskussion verfolgt.

  • Guten Tag,



    wenn genügend Kunden an so einem Storage-Server Interesse haben, können wir diesen anbieten. Was für uns nicht rentabel ist, sind Nodes die viel RAM haben der jedoch nicht gebucht wird. Genügend Kunden für einen günstigen Preis wären gegeben, wenn sich mehr als 100 Kunden melden. Dann können wir auch Spare-Geräte usw. finanzieren.



    Mit freundlichen Grüßen


    Felix Preuß

  • ... Im Angebot steht aktuell:

    Ist diese Textstelle bekannt? Was können wir hier verbessern?...


    Vielleicht so:


    Quote

    Sie können, natürlich abhängig vom vorhandenen Platz, in den storagespace beliebig oft Daten schreiben. Jedoch können Sie jede im storagespace vorhandene Datei nur je 10 Mal runterladen, danach kann diese Datei innerhalb des Abrechnungsmonats nicht mehr runtergeladen werden. Sie müsste dann notfalls erst gelöscht und neu in den storagespace geschrieben werden, um dieses Limit zurück zu setzen.


    Bei diesem Limit geht es ja ganz offensichtlich darum, zu verhindern, dass der storagespace als Filehosting missbraucht wird.
    Ich kann immer noch nicht verstehen, warum die Verwendung als Backup Speicher mit Hilfe von rsync das Limit sprengen sollte. rsync lädt nichts runter, sondern vergleicht die Dateien und schreibt (oder löscht) dann nur. Jedenfalls wenn man rsync als Backup Tool zum Sichern auf den storagespace nutzen würde, etwa (nachts, damit die volle Bandbreite genutzt werden kann):


    Code
    rsync -av --delete -pwlimit=79000 /server/quelleverzeichnis /mnt/storagespace/
  • mittels openstack sollte sich so ein system flexibel aufsetzen lassen. (meiner kenntnis nach)


    Dann könnte der Kunde im Idealfall über Schieberegler seinen Speicher selbst bestimmen. Und netcup selbst hat einen Verbund an Servern, deren Ressourcen durch openstack selbst verwaltet werden.


    Die IT-Sparte einer großen deutschen Airline bietet das ganze beispielsweise an, allerdings auf VM-Ware Basis.


    Aufgrund der Flexibilität und Komplexität wird netcup dann allerdings die preisführerschaft in dem Segment vermutlich aufgeben müssen.

  • Hallo,


    OpenStack ist unserer Erfahrung nach aktuell ein riesiger Hype mit weniger dahinter als man erwartet. Wir selber haben OpenStack ein Weile getestet. Von der Theorie her sind die Ansätze gut, in der Praxis versagen sie. Aktuell nutzen wir ja bereits ein verteiltes Storage-System per GlusterFS für den Storagespace. Swift arbeitet ähnlich.


    Da OpenStack echte Probleme mit großer Last hat, müsste hier der Traffic vermutlich noch mehr limitiert werden um einen günstigen Preis zu erhalten. Was besseres wie jetzt mit GlusterFS werden wir auch mit Swift oder vergleichbaren nicht hin bekommen. Es sei denn wir setzen deutlich weniger Kunden auf die Systeme, was dann aber teurere Preise zur Folge hätte. Anhand der Kommentare in diesem Beitrag ist davon auszugehen, dass kaum einer unserer Kunden die Produkte aus dem Massenmarkt nutzen dafür Geld ausgeben würde.


    Den Ansatz mit speziell auf Storagespace ausgelegten Root-Servern können wir realisieren, wenn sich mehr melden. Bislang hat sich ein Kunde hier im Beitrag gemeldet. 99 fehlen noch ;)



    Viele Grüße und ein angenehmes Wochenende


    Felix Preuß

  • Also die Idee mit einem Storage-vServer finde ich auch gut, allerdings glaube ich nicht das es preislich so extrem attraktiv sein wird. Wäre ja ein Root-Server-S mit mehr HDD oder ein Root-Server-M mit weniger Speicher, wobei ich letzteres wohl bevorzugen würde (könnte mir vorstellen das die Performance mit einem (1) vCore nicht richtig prickelnd ist). Da wäre ich mal gespannt wie die Preisgestaltung da letztendlich aussehen würde, und gegenüber den vorhandenen vServern einen spürbaren Unterschied macht.

    9 von 10 Stimmen in meinem Kopf sagen ich bin nicht verrückt, die letzte summt ständig die Melodie von Tetris.

  • Eine kurze Ruckfräge hierzu

    Quote from facebook-Post

    Als Betriebssystem käme OpenFiler oder etwas ähnliches zum Einsatz.


    Dies ist nicht festgelegt oder? Ich könnte also noch über das RescueSystem, falls dies zur Verfügung steht, eigene Systeme installieren?

  • Hallo!


    Lieber Herr Preuß, sie antworteten oben:

    WebDAV hat im Vergleich zu NFS viele Nachteile. Wenn es rein um den Preis geht empfehle ich ein Webhostingpaket oder einen anderen Root-Server zu nehmen und den zu mounten. Selbst FTP lässt sich mounten. Die Vorteile von NFS und einem verteilten Storage gehen dann aber verloren.

    Ich bin noch auf der Suche nach einem neuen Server, kann es auf einem Ihrer Systeme deshalb nicht selbst testen: Bedeutet das, dass man auf einem KVM-Root-Server (z.B. M oder L) mittels curlftpfs (also über das FUSE-Modul) einen beliebigen FTP-Server zeitweise einbinden kann? In meiner Anwendung würde ich etwa 1 mal monatlich einen Solr-Datenbankexport benötigen, bei dem die Daten letztlich sowieso übers Netz übertragen werden sollen. Mittels curlftpfs bräuchte ich dann dafür nicht noch extra Festplattenspeicher als Zwischenablage vorhalten. Oder gibt es einen alternativen Weg? Ihre Storage-Lösung würde ja auch gehen, allerdings wäre das mit Kanonen auf Spatzen geschossen, wenn ich den Platz nur aller paar Wochen für wenige Stunden benötigen würde.


    Viele Grüße!

  • Bedeutet das, dass man auf einem KVM-Root-Server (z.B. M oder L) mittels curlftpfs (also über das FUSE-Modul) einen beliebigen FTP-Server zeitweise einbinden kann?


    Da es sich bei KVM um eine Vollvirtualisierung handelt, kann Dein Gastsystem quasi alles ausführen, was auf einem dezidierten System auch gehen würde. Somit auch Kernel-Module! :)


    Und was curlftpfs im speziellen betrifft: Das nutze ich seit Einführung der KVM-Server selbst regelmäßig für Backups unter Debian Wheezy auf einem netcup System. Funktioniert einwandfrei:



    Falls Du dabei Probleme hast, eröffne bei Bedarf einfach einen neuen Thread. Im Forum wird Dir sicher schnell geholfen.



    MfG Christian