Beiträge von julian-w

    Da ich auch vorhabe pwiki zu nutzen und mir mal die AGBS durchgelesen habe ist mir folgendes aufgefallen:


    Unter "Sondervorschriften für Webhosting":
    3. [...] Die Statistiken können vom Kunden im Webservermanagementsystem (Confixx) abgerufen werden. [...]


    Ist das nicht mittlerweile Plesk? ;)


    In den AGBs steht halt zu den Sachen, die nicht erlaubt sind: "[...]Betreiben von Serverdiensten , die eine besonders starke Rechnerlast verursachen[...]"
    Ich denke mal wenn du nicht mehr wie 5-10k visits pro Tag hast sollte das kein Problem sein.

    Da es nirgends hinpasst spame ich meine Meinung einfach mal hier hin ;)


    Wie findet ihr so das neue Cloud-Hosting, jetzt nachdem es schon ein paar Monate draußen ist? Ich bin jetzt dabei endlich alles umzustellen (und habe dabei schmerzlich erfahren müssen wie wichtig es ist Backups am besten 3x zu kontrollieren :pinch: ) und muss sagen im Großen und Ganzen finde ich das neue Panel sehr gelungen :thumbup:


    Meine kleinen Kritikpunkte sind:

    • keine ChatchAll E-Mail pro Domain mehr möglich, sondern nur noch eine für das komplette Paket :(
    • Der Button "AWStats Webstatistiken (zugänglich über das passwortgeschützte Verzeichnis '/plesk-stat/webstat/' )" bei den Hosting-Einstellungen ist sehr ungünstig, offensichtlich schaltet er nicht die AWStats an bzw aus, sondern den Passwortschutz an bzw. aus (was ich erst durch ein Support-Ticket herausfand, wurde auch weitergereicht, hat aber bei mir für viel Verwirrung gesorgt).
      Allgemein finde ich das man bei einigen Buttons erst mal die Bedeutung herausfinden muss, so bedeutet "Website sichern" nicht das man da ein Backup anlegen kann, sondern die Website mit einem SSL-Zertifikat austatten kann. Die Einrichtung des SSH-Zugangs ist unter "Webhosting-Zugang" versteckt, Cronjobs sind unter "Geplante Aufgaben" zu finden...
    • ich komme nicht mit dem SSH-Zugang klar... scheinbar kann man ja eigene Tools installieren, aber ich krieg es nicht hin... sowas wie "wget", "tar", "unzip", "git" wären für mich sehr sehr praktisch ;) Nice to have wäre noch "php", "phyton" und ähnliches 8) Vielleicht kann mir hier ja einer helfen, der schon was zum laufen bekommen hat :)
    • Man sollte irgendwo erwähnen das man diese kryptische netcup-Subdomain weder sperren noch deaktivieren sollte da sonst nichts mehr geht ;)
    • Ach ja, aus irgendeinem Grund versucht das WCP immer eine Datei namens "https://www.webhostingcontrolpanel.de/theme/images/logos/netcup-logo-2.png" zu laden, die es nicht gibt ;)


    Pluspunkte gibt es viele, hier mal meine Perlen :thumbup:

    • schicke Oberflläche 8)
    • SEHR SEHR viele Einstellmöglichkeiten, sehr viele nette Sachen wie Phyton, Perl, etc :D
    • SSL-Zertifikate einfach einzurichten :thumbup:
    • netter Webmailer, damit macht es sogar Spaß zu arbeiten ;)
    • mehr MySQL-Datenbanken wie früher, sogar jeweils mit eigenem Nutzer :thumbup:
    • Änderungen werden DIREKT wirksam 8o
    • und vieles mehr, super Preis, interessante Features wie Bandbreitenbegrenzung und und und ;)


    Also wenn die paar Kleinigkeiten (CatchAll pro Domain, SSH-Zugang mit mehr Tools) in Zukunft auch noch gelöst werden ist mein Traum-Hosting real geworden :rolleyes:

    Hallo,


    ich bin dabei mein CloudHosting für den produktiven Betrieb einzurichten, dabei viel mir folgendes auf: "E-Mail-Dienst auf Domain ist deaktiviert." netcup.PNG
    Warum ist der E-Mail Dienst deaktiviert!?


    Zudem wollte ich Fragen ob es möglich ist, wie "früher" eine Catchall-Adresse pro Domain anzulegen? Im Wiki steht ja nur eine Anleitung, wie man alle Mails von allen Domains abfangen kann.


    Beispiel:
    Ich hab die Domains pro1.de und pro2.de. Nun würde ich gerne eine Catchall für pro1.de anlegen die mails an info@pro1.de weiterleitet und eine weitere Catchall für pro2.de die entsprechend an info@pro2.de weiterleitet. (Domains sind frei erfunden ;) )


    Viele Grüße
    Julian

    Vielen Dank für die Antwort, Das half mir weiter!
    Vor allem das mit SPF finde ich sehr schön (nachdem ich mich informiert habe wozu es gut ist :rolleyes: ) das netcup das standardmäßig sinnvoll einstellt :thumbup:


    Noch eine Frage zu den MX-Einträgen: Bei mir verweist mxf912.netup.net auf die IP 46.38.249.18, also genau auf die gleiche IP wie der erste (niedrigere priorisierte) MX-Eitnrag. Welchen Zweck haben daher diese zwei Einträge?


    Und noch was: Wenn ich also eine Domain ab jetzt mit Cloud-Hosting nutzen möchte, schreibe ich dazu am besten den Support an und die Pflegen für mich dann im Fall des Falles die IPs, korrekt? Was ist wenn ich noch eigene Einträge hinzufüge? Werden diese berücksichtigt?

    Hallo,


    ich will jetzt demnächst endlich alle Web-Projekte auf das neue Cloud-Hosting umstellen. Dazu hab ich eine Frage zu den DNS-Einstellungen: Bisher gab es immer nur eine IP, die für alles zuständig ist, jetzt sind es ja 4!? Kann ich die einfach alle Copy&Pasten?


    Was mich Interessieren würde: Wofür ist der TXT Eintrag? Und warum gibt es zwei Mailserver? Und wozu ist webmail gut ich sehe da nur eine "kaputte" Website wenn ich darauf gehe? Und wenn netcup aus irgendwelchen Gründen die IPs ändert, muss ich die dann von Hand ändern?


    Viele Fragen, ich hoffe mal ihr könnt mir weiterhelfen! :)


    Viele Grüße
    Julian

    Es reichen ja schon die paar KB die bei einer ssh Verbindung entstehen.


    Stimmt daran habe ich gar nicht gedacht... damit wären ja die "monatlichen Kosten" für eine dezidierte Netzwerkkarte immer 15€ höher. Außer man würde sich irgendwie mit dem VCP über eine Remote-Session einloggen aber das alles wäre wohl mega umständlich... oder man verbindet sich z.B. über einen Root-Server S zu den anderen... aber irgendwie alles gefusche...

    Und dafür brauchst du unbedingt full-duplex NIC dedizierte Anbindung?


    Bei einem Datenbankserver evtl. nicht außer man will Ihn unbedingt im eigenem VLAN haben, bei einem Backupserver je nach Menge ist es denk schon sinnvoll und bei einem Server der hinter einen LoadBalancer (z.B. ngnix) geschaltet ist auf jeden Fall. Und in allen 3 Fällen würde außer dem externen Traffic für Systemupdates nichts nach außen gehen.

    der Traffic wird immer je angefangenem TB berechnet. Werden 500 GB Traffic verbraucht, fallen die Kosten für 1 TB an.


    Was ich daran etwas ungünstig finde wird evtl. durch folgendes Szenario deutlich: Ein Server wird als Datenbank- oder Backup-Server benutzt. Alle Anfragen kommen aus dem internen netcup-Netz, der Traffic würde also nicht gezählt werden. Jedoch muss der Server auch geupdatet werden, sodass dadurch sicherlich auch mal ein paar 100MB externer Traffic anfallen. Und für diese "kleine" Menge müsste man dann direkt Kosten wie für 1TB Datentransfer tragen? Oder bietet netcup z.B. ein Debian-mirror im internen Netz an? Oder kann man die "alte" Netzwerkkarte für sowas weiternutzen, also hat man danach 2 Netzwerk-Interfaces?


    Und welcher Traffic wird eigentlich gezählt? Nur ausgehender? Eingehender und ausgehender?

    Ich hätte noch eine Frage zu den 15€ / TB:


    Wenn ich nur 500GB verbrauche, muss ich dann die vollen 15€ bezahlen? 7,50€? Oder ist das erste TB frei? Ich wäre Ihnen sehr dankbar wenn sie mir das kurz näher erleutern könnten :)

    Einmal hier lesen ;)
    http://www.netcup-wiki.de/wiki/Domaintransfer


    Bei .de-Domains kannst du von deinem Anbieter einen Auth-Code bekommen. Diese Auth-Code gibts du später dann bei netcup in ein Forumlar an, danach wird die Domain automatisch transferiert. Wie genau du an den Auth-Code kommst musst du bei deinem alten Anbieter nachfragen. Meist ist dazu eine schriftliche Mitteilung oder ähnliches nötig (war bei mir bei "1oder1" so).

    Ich glaube du unterschätzt die Server etwas. Oder überschätzt die benötigte Rechenlast.
    Kannst du eine ungefähre Zahl nennen, mit wieviel Aufrufen ihr in der Spitze rechnet?


    Das kann gut sein. Leider lässt es sich sehr schwer schätzen, ich denke mal 1000 req/s könnten schon drinnen sein, oder auch noch mehr. Eben weil wir das so schlecht schätzen können liebäugeln wir mit einer Cloud-Lösung, da wir dann dynamisch Ressourchen hinzufügen und entfernen können. Im Falle eines Erfolgs sehen wir ja was wir brauchen und können dann einen passenden "klassischen" Server mieten bzw. die Kosten Vergleichen ;)


    Ich glaube für den Anfang würde entsprechend dimensionierter Server reichen. Wenn dann die Last zu viel wird, kann man die Datenbank ja noch auf einen weiteren Server auslagern und mit Caching auch noch einiges bewirken.
    Und wenn das Caching ordentlich läuft, kann der nginx auch eine Menge Seiten ausliefern.


    Die Sorge die wir haben ist halt im laufenden Betrieb das sauber umzustellen, schon nur weil neue DNS-Einträge ja bis zu 48h zum updaten brauchen. Caching wird schwierig, da wir jedem Benutzer eine eigene Seite ausliefern müsse, aber viele MySQL-Querys werden mit memcached gecacht. Von einer selbst administrierten MySQL-Datenbank würden wir absehen, da wir dafür keinen Experten haben und das stellen an den Parametern scheint wohl in Sachen Leistungsfähigkeit sehr kritisch zu sein.


    Ich hab mal einen Blogbeitrag von jemanden gelesen, der seine Website auf dem Cloudsystem einer bekannten Suchmaschinenfirma betreibt. Er kam am Ende deutlich teurer, als mit einem normalen Hosting (ich glaub so circa das 5-6 fache).
    Vermutlich lohnt sich das erst, wenn man immer wieder extreme Lastspitzen hat.


    Wir vermuten, das vermutlich nur ein paar Stunden am Tag mit Last zu rechnen ist und der Rest des Tages quasi "keine Last" da ist. Wir haben das schon durchgerechnet und die geschätzen Kosten wären für uns okay.


    Abgesehen davon, steht dir nichts im weg, ein Cloud Webhosting von Netcup zu buchen. Es ist ja ein Cloudsystem und in der Anzahl der Aufrufe nicht künstlich begrenzt. Wenn die Last wirklich zu groß wird, dann kann auch Netcup auf dich zukommen um eine Lösung zu finden.


    Nunja ich weiß nicht ob netcup und die Kunden, mit denen man auf einem Server ist, es so toll finden, wenn man so ein Projekt hostet ;) Wir haben ja bereits einen "Expert M"-Tarif, aber werden den nur für unseren Mail-Verkehr nutzen. Selbst der größte Tarif kostet nicht mals 10€ im Monat, ich denke das wäre einfach "unfair". Zudem müsste man dann, wenn es erfolgreich wäre, das ganze im Betrieb umstellen was ich als problematisch betrachte. Daher gefallen uns auch Cloud-Lösungen am besten, da man wohl sonst nirgends "schneller" an weitere Rechenleistung/Server kommt (und sie auch wieder los wird).

    Denkst du eine E-Mail an euren Support mit Frage um ein Angebot lohnt sich? ;) Oder ist das für euch zu viel Aufwand etwas so "spezielles" bzw abweichendes von eurem Produktfolio auf evtl. nur kurze Zeit bereitzustellen?

    Mal ne Frage wie würdet ihr eine Website hosten, die versucht "viral" extrem viele Klicks zu bekommen. Sehr schwammig genauer kann ich aber leider nichts sagen was auch unser Problem ist.
    Die Website ist recht "einfach" gestrickt, php mit MySQL, pro Aufruf werden 3-5 Anfragen an die Datenbank geschickt. Großer Speicher für Daten/Bilder oder ähnliches wird nicht benötigt. Rechenintensiv ist die Anwendung auch nicht.


    Zur Zeit haben wir für das Projekt einen "Web Expert M"-Tarif für Mail und zum testen der Website. Keine Angst netcup und Kunden auf unserem Server, darauf soll die Website natürlich nicht bleiben, lediglich der Mail-Verkehr wollen wir darüber laufen lassen ;)


    Uns schwebt momentan die NAMEENTFERNT Cloud vor, also "NAMEENTFERNT" mit "NAMEENTFERNT"-Instanzen. Als Datenbank würde wir den Dienst "NAMEENTFERNT" von NAMEENTFERNT nehmen. Den großen Vorteil den wir darin sehen ist, das wir nur für das bezahlen was wir brauchen, also wenn die Website nicht boomt wir nicht monatelang hohe Kosten für fette Server haben. Zudem übernimmt NAMEENTFERNT die Config der MySQL-Datenbank. Einen lighttpd oder ngnix Server mit php aufsetzen trau ich mir dann doch selbst zu inkl. sicherer Konfiguration etc. 8)


    So viel Text, aber wäre cool wenn einer von euch vlt noch ein paar Tipps, Hinweise zu amazon Cloud oder andere Vorschläge hat. Wir konnten erst mal nichts besseres finden, CloudServer bietet netcup ja leider nicht mehr ;)

    Hallo,


    ich administriere einen Expert M Tarif. Wenn ich auf Website -> Hosting-Einstellungen und dann auf "Es befinden sich keine SSL-Zertifikate in Ihrem Repository. Um ein Zertifikat hinzuzufügen, gehen Sie zu dieser Seite." klicke, öffnet sich ein neuer Tab und das Design ist futsch bzw es fehlen etliche Bedien-Elemente.


    Ich denke da ist noch ein kleiner Bug vorhanden ;)


    Eine Frage dazu hätte ich noch: Kann ich im Expert-Tarif einfach bei Ihnen ein SSL-Zertifikat (z.B. von Thawte) erwerben und direkt ins Webhosting-Paket integrieren?


    Viele Grüße
    Julian