Posts by Ringelnatz

    ALso PHP 7.3.29 ist schon sehr, SEHR veraltet (ca 2014) und sehr wahrscheinlich auch nicht sicher

    Verwechselst du das evtl. mit PHP 5.3? PHP 7.3 erhält offiziell noch bis Ende des Jahres Sicherheitsupdates. (Und ich könnte mir vorstellen, dass es wenig oder gar keine Probleme bei einem Update auf PHP 7.4 geben dürfte, damit wäre man dann ein weiteres Jahr safe.)


    https://www.php.net/supported-versions.php

    Es gab mal eine Zeit, in der ich mit den netcup Webhostings durchaus sehr zufrieden war.

    Was das zufällig vor der Plesk-Ära? Gefühlt gibt es haufenweise Probleme seit erstmals diese zentralisierte Plesk-Lösung angeboten wurde (diese Webhosting-Cloud damals). Das war ja anscheinend auch für netcup eher Krampf, das scheint aber mit den neuen Systemen auch nicht viel besser geworden zu sein.

    Hat zufällig auch jemand Probleme mit dem Servercontrolpanel?

    Habs nicht probiert, aber mein Monitoring bimmelt schon seit ner Stunde immer mal wieder, eben kam dann auch die Ausfall-Email.

    Erfahrungsgemäß ist das SCP dann oft auch nicht benutzbar weil die Serverinfos scheinbar synchron abgefragt werden und das dann eben nicht klappt.

    Die "cloud"-Server dort im unteren Bereich sind wohl auch durchaus preislich vergleichbar mit denen von netcup. (Getestet habe ich die allerdings nicht)

    Ich bin da aber was die Serveranforderungen angeht subjektiv. Unter 16 GB RAM und 300 MB SSD geht da nichts und somit habe ich auch nur solche Server verglichen. Und ab da geht die Preisschere dann doch schon schwer auseinander,

    Stimmt, ich hatte mich an den Preisen der kleineren Server orientiert. Immerhin: Die meisten Cloud-Server bei anderen Anbietern sind noch deutlich teurer. Und die zusätzlichen Features sind schon nett, da hoffe ich seit Jahren, dass netcup da mal aufholt. Stundenbasierte Abrechnung gibt es ja hier schon bei den vServern, da kann doch bis zur vollautomatischen Einrichtung eines neuen Servers in Echtzeit nicht mehr viel fehlen. Wurde hier im Forum nicht vor einiger Zeit sogar mal ne API für die Bestellung von Servern geteasert oder habe ich das komplett falsch in Erinnerung?

    Da ich nicht so sonderlich viel von Tests halte, die ausschließlich auf Benchmarks beruhen, teste ich das immer auch noch konkret

    Ich kann über die Cloud-Server zumindest berichten, dass sie laut meinem Monitoring grundsätzlich eine ähnlich gute Verfügbarkeit wie meine netcup Kisten zu haben scheinen. Und ich kann über Stunden meinen dort betriebenen RTMP-Server nutzen ohne, dass es zu spürbaren Beeinträchtigungen im Netzwerk kommt. Das ist nicht selbstverständlich, auch bei netcup nicht, da hatte ich in der Vergangenheit immer wieder mal Probleme mit Packet Loss etc. auf einzelnen Servern. Das mag für nen Webserver o.ä. nicht ganz so schlimm sein, fällt bei Streaming aber direkt auf.

    bietet aber keine echten vServer, nur diese Cloud-Dinger

    Aus Interesse, warum ist es ein Problem, dass das Angebot "Cloud" im Namen hat? Ich vermute welchen Provider du meinst und hätte deren Cloud-Server als mit schärfste Konkurrenz zu netcup gesehen, gerade auch preislich.

    Wir sind schließlich hier Kunden weil wir netup vom Preis-/Leistungs-Verhältnis spitze finden, und nicht weil wir nicht wüssten was die Konkurrenz zu bieten hat!

    Du hast vor ein paar Jahren ja bereits den offiziellen Grund für diese Regel genannt bekommen. Hier mal zwei Zitate von Felix:

    Allerdings ist es in vielerlei Hinsicht nicht ratsam, dass im Forum eines Betreibers Namen von Mitbewerbern des Betreibers genannt und über diese diskutiert werden. Schließlich kann dem Betreiber so immer vorgeworfen werden, dass er die Beiträge zu seinen Gunsten manipuliert. Abmahnungen sind hier dann so gut wie sicher.

    Wir als Betreiber des Forums sind für jeden Beitrag mit verantwortlich, von dem wir Kenntnis haben. Aus dem Grund schließen wir die Nennung von Mitbewerbern hier aus.

    Ob das rechtlich wirklich so problematisch ist kann ich natürlich nicht beurteilen (und unser Forenjurist nimmt ja gerade eine Auszeit ;)). Aber die Haltung passt zumindest zu netcup, wenn man bedenkt wie lange die Kündigung hier nur per Post/Fax möglich war, und dass Domain-Reseller nicht eigenständig Kundendomains löschen können, obwohl die Haftung in so einem Fall per zusätzlichem Vertrag eindeutig geklärt ist, und sicher gibt es noch weitere Beispiele. Man geht halt auf Nummer sicher.

    ArtCore7  += ist ja durchaus verbreitet (Java, JavaScript, ...), in Verbindung mit einem return (das dann auch noch mehrfach pro Methode) ist mir das allerdings noch nicht untergekommen ;)

    Erinnert ein bisschen an yield, aber das funktioniert nochmal ein bisschen anders.

    Bei der Denic kam es immer wieder zu einem Fehler, weil ns1 und ns2 auf einer IP lagen, ergo wurde eine 2. iPv4 ueber netcup geordert und eingerichtet.

    Diese Anforderung soll sicherstellen, dass beim Ausfall eines Nameservers die darauf gehosteten Zonen trotzdem aufgelöst werden können (Stichwort Redundanz). Dem Nameserver einfach eine weitere IP zu verschaffen ist daher naheliegenderweise nicht zielführend.


    Die ns-Records können in Schlundtech nicht neu gesetzt werden. Aktuell werden immer wieder die Standard Schmundtech-Nameserver gesetzt.

    Bei Problemen mit dem Verwaltungsinterface eines anderen Hosters kann hier niemand helfen, das ist ein Fall für deren Support.

    Ich würde mit Git-Tags arbeiten, also ein Tag (den kannst du ja jederzeit für einen beliebigen Branch/Commit anlegen) in GitHub entspricht einem Deployment der Webseite. Das lässt sich mit Actions automatisieren: https://docs.github.com/en/fre…hpull_requestbranchestags


    Dann per scp den jeweiligen Code-Stand auf den Server schieben, z.B. hiermit (kurz gegoogelt, gibt auch noch andere actions dafür): https://github.com/marketplace/actions/scp-deploy-action

    Beide Scripts testen die rohe CPU Leistung. Das ist fürs Webhosting sicherlich ein wichtiger Parameter. ABER:

    Es fehlt die Datenbankleistung und die Time-To-First-Byte. Was sicherlich auch noch wichtige Parameter sind!

    Um ehrlich zu sein ist die CPU-Leistung für eine klassische Webseite wohl mit der unwichtigste Parameter. Zumindest für dynamische/modulare Seiten (z.B. WordPress-basiert oder irgendeine Software die auf viele Libraries dependet, im Dateisystem einen Cache anlegt etc.) ist IO-Performance sehr wichtig, und falls eine Datenbank im Spiel ist natürlich auch deren Performance sowie die Latenz bei den Abfragen.

    mainziman Logisch, das ändert aber nichts an der vorübergehenden "Downtime" der Domain. Bis der Registrar die neuen Nameserver übernimmt und diese global bekannt sind kann es halt ein paar Stunden dauern. Wenn die alten NS sich dann schon nicht mehr zuständig fühlen klappt solange die Auflösung nicht mehr.

    Wie ist das eigentlich, wenn man aktuell eine Domain weg transferiert? Behalten die netcup NS die bisherigen DNS-Records noch für eine gewisse Zeit oder geben die sofort NXDOMAIN zurück, sobald der Transfer durch ist?

    Beim Umstellen auf eigene NS werden die von netcup ja zumindest sofort deaktiviert (was auch ziemlich ungünstig ist), insofern schätze ich, dass es bei einem ausgehenden Transfer nicht anders sein wird. Aber ist nur ne Vermutung.


    Aufgrund der aktuellen Berichte hier im Forum und meinen eigenen Erfahrungen bin ich jetzt soweit, dass ich in nächster Zeit meine bei netcup liegenden Domains wegtransferieren werde (bin noch nicht ganz sicher wohin). Selbst wenn man wie ich hauptsächlich eigene NS nutzt gibt es noch genug Möglichkeiten hier in Fehler zu laufen welche die Domain unerreichbar machen und nur durch den Support zu lösen sind. Schade, ich habe ja sogar die neue API in der Betaphase getestet und Feedback gegeben, dennoch hat sie es allenfalls in den Status "gerade so brauchbar" geschafft. Und auch andere Systeme scheinen ja alles andere als ausgefeilt zu sein. Das ist mir dann doch zu heikel.