Beiträge von tab

    Ok, ich sehe schon, netcup hat das Problem auf den nächsten Level gebracht. Die Vorauszahlung kann ich wenigstens rechnerisch nachvollziehen, das sind einfach die 30,30€/Moant umgerechnet auf 19% Mehrwertsteuer. Am Rest scheitere ich bisher leider völlig und habe keine Ahnung, wie man auf die Beträge kommen will.

    Hm, das mit der Vorauszahlung kenne ich noch gar nicht, hab jetzt länger nichts bestellt. Ich bekam bisher halt immer die zwei Rechnungen für 2020 und 2021 und die habe ich dann halt bezahlt. Noch etwas chaotischer waren nur Rechnungen, die ich vor der Mehrwertsteuersenkung bereits für 1 Jahr gezahlt hatte, was dann aber in 2021 endete. Da gab es dann Korrekturrechnungen. Tipp an den Finanzminister: Mehrwertsteuersatz täglich ändern, dann brauchts für einen harten Lockdown keine weiteren Beratungen und Maßnahmen mehr.


    Vor einiger Zeit habe ich hier mal darauf hingewiesen, dass zur Splittung in zwei Zeiträume der Tagespreis berechnet wurde mit Netto-Jahrespreis/360, also praktisch hat das Jahr da nur 360 Tage, wodurch der Netto-Tagespreis dann teurer ist als er ursprünglich war. Die zwei Zeiträume wurden aber mit der richtigen Anzahl Tage berechnet, so dass der Endpreis dann trotz Mehrwertsteuersenkung höher war als in "normalen" Jahren mit normalem Mehrwertsteuersatz. Vielleicht wurde danach etwas geändert/verschlimmbessert, so dass man sich jetzt seitens netcup zu seinen Ungunsten verrechnet. :?:?(


    Versuch doch mal, die Berechnung des Betrags der Teilrechnungen nachzuvollziehen, also wie man auf die falschen(?) Beträge kommt.

    Edit: Oder poste doch mal die Zahl der berechneten Tage auf den beiden Teilrechnungen.

    Naja, es fällt halt auf, weil der Rechnungs-PDF-Inhalt nicht mit dem Paypal / Kontoauszug übereinstimmt. Beleg passt nicht zu Buchung. Das weist dir jede Buchhaltung zurück. Die Beträge ansich sind wohl korrekt (war bei mir zumindest so), nur die Belege nicht.

    Na das geht ja gar nicht. Da werde ich wohl dabei bleiben, die Beträge nach Erhalt der Rechnung selbst zu überweisen. Da stimmen die Beträge dann wenigstens überein.

    Also in dem Webhosting, in das ich gerade mal zufällig reingeschaut habe, zeigt phpinfo() exakt die gleiche Liste bei disable_functions was auch in Plesk steht. Lustigerweise fehlt bei mir letzte oben aufgeführte Funktion, pcntl_async_signals. Ansonsten scheint es übereinzustimmen. Ist bei mir PHP 7.4.12, mag bei anderen PHP-Versionen ja eventuell anders aussehen.

    Du kannst in den Hosting-Einstellungen der Domain eine bevorzugte Domain angeben, also in deinem Fall wohl die mit www. Dann wird automatisch auf die www-Subdomain weitergeleitet. Es ist in jedem Fall sinnvoll, hier mit oder ohne www auszuwählen, bei dir ist wohl die Option "Keine" ausgewählt.

    Da, wo du bisher die Domain (z.B. example.com) als externe Domain dem Webhosting hinzugefügt hast, einfach stattdessen die Subdomain hinzufügen (z.B. sub.example.com). Je nachdem, was du mit der Subdomain hier bei netcup alles machen willst reicht es schon, im DNS der Hauptdomain für die Subdomain einen A- und ggf AAAA-Record auf dein Webhosting zu setzen. Falls das wider Erwarten nicht reicht, dann halt auch noch einen MX. Dann kannst du sogar Postfächer für die Subdomain (z.B. user@sub.example.com) anlegen, was bei deiner Methode mit Einbindung der Hauptdomain hier bei netcup nicht geht. Allerdings kannst du dann natürlich keine Postfächer für Adressen der Hauptdomain anlegen.

    Ich habe es auch schon so gemacht, dass ich die Subdomain als externe Domain eingebunden habe. Wenn das wirklich die einzige benötigte Subdomain der Domain ist, finde ich das einfacher und auch sauberer.

    Beim Weltraum gibt es ja nur einen Tarif, den man auch einen Monat umsonst und problemlos testen kann. Man muss ja nicht mal kündigen, sondern nur einfach nichts zahlen oder selbst aktiv den Webspace löschen. Hier bei Netcup schätze ich mal, wird man dir einen VPS oder RS empfehlen, Die fehlende Go(lang)-Unterstützung wird wohl weniger das Problem sein, weil man ja Binaries installieren kann. Aber PostGreSQL wird wohl ein KO-Kriterium für ein netcup-Webhosting sein. Auf einem VPS oder RS aber kein Problem. Preislich wird sich das nicht unbedingt viel schenken, aber ein Server bedeutet halt einen administrativen Aufwand und eine größere Verantwortung für die Sicherheit. Bin gespannt auf die Ergebnisse deiner Anfragen.

    Also ich würde schon einen mittleren dreistelligen Betrag wetten, dass Commento bei der "Weltraum-Konkurrenz" laufen würde. PostGreSQL ist da schon mal kein Problem und Golang wird auch unterstützt. Und ich glaube einen First-Level Support haben die auch heute noch nicht. Habe erst vor ein paar Tagen einen dortigen Webspace auf die neue Version migriert und die paar Mal wo ich in der Vergangenheit Fragen hatte, habe ich immer sehr flott kompetente und hilfreiche Antworten auf meine Fragen erhalten. Einmal habe ich nachgefragt, wann denn eine neuere MySQL-Version aufgespielt wird und die Antwort war, "sehr wahrscheinlich bis Ende des Jahres, aber wenn du es schon vorher brauchst, installier dir doch einfach deinen eigenen MySQL-Server in deinem Webspace." Mit Link zu einer Beschreibung wie ich das machen kann. Das geht aber halt leider nicht überall.

    "Leistung" ist bei einem Webhosting eine recht komplexe Geschichte. Da spielt halt nicht nur CPU-Leistung eine Rolle. PHP ist z.B. an sich nicht besonders performant. Erträglich wird es erst durch Caching, insbesondere OPCache oder davor APC(u) auf PHP-Seite und einem vernünftigen Anwendungscache auf Anwendungsseite. Es ist in den allermeisten Shared Hostings teilweise so krass, dass wenn eine Website ein paar Tage gar nicht aufgerufen wurde, der erste Aufruf danach dann auch mal 20 Sekunden dauert. Einfach weil das CMS erst mal ein paar Milliarden (:D) PHP-Skripte braucht, bis es überhaupt mal anfängt am Seitenoutput zu arbeiten. Da sieht man dann, wie langsam PHP eigentlich wirklich ist und insbesondere wieviele Skripte da geladen und interpretiert werden müssen bei den gängigen CMS. Modularität lässt grüßen, bei kompilierter Software sieht das anders aus, da muss zur Laufzeit nicht jede Quelldatei auf der Platte gesucht und dann eingelesen werden. Wird die Website halbwegs oft aufgerufen, dann liegen die Skripte größtenteils oder alle kompiliert im OPCache, aber nach Tagen ohne Aufruf liegen da in einem Shared Hosting dann halt mittlerweile andere Skripte drin. Was ja auch Sinn macht, denn warum soll in dem beschränkten Cache ein Skript drin bleiben, was tagelang nicht aufgerufen wird? Auch SSD-Speicher ist da leider kein Allheilmittel. Manche Dateisysteme sind halt auch ziemlich langsam.

    is des net a Terminus technicus, der bereits in Raumschiff Enterprise und so vorgekommen ist?;)

    Das haben die Macher von Star Trek wie so manches durchaus der (halbwegs) seriösen Wissenschaft übernommen. Immerhin, schwarze Löcher gibts wirklich, ob es Tachyonen wirklich gibt ist dagegen mehr oder minder reine Spekulation. Oder was für Mathematiker und theoretische Physiker.

    Olexa-Myron Bilaniuk, V. K. Deshpande und E. C. G. Sudarshan wiesen 1962 darauf hin, dass es für die Gleichungen der speziellen Relativitätstheorie mehrere Lösungsmöglichkeiten gibt (und unabhängig Anfang der 1960er Jahre auch der sowjetische Physiker Jakow Petrowitsch Terlezki).[1] Eine davon entspricht der normalen Materie, die sich mit Unterlichtgeschwindigkeit bewegt. Eine andere würde Teilchen erlauben, die sich ständig mit Überlichtgeschwindigkeit bewegen und niemals bis auf Lichtgeschwindigkeit abgebremst werden können. Die Tatsache allein, dass es diese mathematische Lösungsmöglichkeit für die Gleichungen gibt, bedeutet jedoch nicht, dass Tachyonen auch real existieren müssen.

    Ist ja ein Root Server und kein Webhosting

    Ja, bei dir nicht. Aber bei mir ist das schon ein Webhosting. Download-Speed 627M? Da liege ich ja grob bei 5 GBit/s ?(. Das ist mehr als sogar ein Root Server haben sollte. Ok, die Netzwerkanbindung muss für den gesamten Hostingserver reichen und jetzt ist da halt nicht viel los. Kein Wunder erreiche ich da einen doppelt so hohen Download, offensichtlich ist da kein Limit pro Kunde gesetzt oder es ist höher als bei einem RS oder gar VPS. Das wusste ich bisher noch nicht. Dein Wert für den Download ist < 2.5 GBit/s, aber nicht viel kleiner, also im normalen Rahmen für einen RS. Nur der Upload zum Speedtestserver scheint halt allgemein sehr langsam zu sein. Vielleicht ein Fall für [Anexia] Theo V. ?

    Ich denke es hängt an der speziellen Verbindung zu dem Server. Ich hab jetzt leider kein eigenes Ziel für den Upload, aber von einem anderen Webhosting aus erreiche ich beim Download per wget von dem Webhosting 8000, also praktisch ein Upload von Netcup zur Konkurrenz schon mal 85 MB/s. Von einem anderen Konkurrenten kann ich leider nicht ganz 1GB runterladen, weil die maximale Dateigröße da schon überschritten wird, aber immerhin 952.68M mit 192 MB/s. Und von der Konkurrenz aus Montabaur erreiche ich immerhin 252 MB/s. ;)

    Habe von Montabaur aus auch mal speedtest.tele2.net probiert und habe da im Download etwas weniger als bei netcup, aber der Upload erreicht da ca 51 MB/s

    Ich denk mal die Netzwerkoptimierung wird sich eher auf die Verbindung zu Internet-Providern konzentrieren und weniger auf die Verbindung zu anderen Hostern. Hmm, gerade fällt es mir auf: Sollte ich nicht nur maximal 1 Gigabit/s haben im Webhosting? Also die Vorgabe habe ich ja bei dem Test schon ziemlich pulverisiert. :D8).

    Ich denke es hängt an der speziellen Verbindung zu dem Server. Ich hab jetzt leider kein eigenes Ziel für den Upload, aber von einem anderen Webhosting aus erreiche ich beim Download per wget von dem Webhosting 8000, also praktisch ein Upload von Netcup zur Konkurrenz schon mal 85 MB/s. Von einem anderen Konkurrenten kann ich leider nicht ganz 1GB runterladen, weil die maximale Dateigröße da schon überschritten wird, aber immerhin 952.68M mit 192 MB/s. Und von der Konkurrenz aus Montabaur erreiche ich immerhin 252 MB/s. ;)

    Ähnliche Werte erreiche ich mit meinem Webhosting 8000 auch, nur der Download nach /dev/null ist mehr als doppelt so schnell wie bei deinem Server. :).

    Code
    bash-4.4$ curl ftp://speedtest.tele2.net/10GB.zip -o /dev/null
      % Total    % Received % Xferd  Average Speed   Time    Time     Time  Current
                                     Dload  Upload   Total   Spent    Left  Speed
    100 10.0G  100 10.0G    0     0   617M      0  0:00:16  0:00:16 --:--:--  627M