Beiträge von CmdrXay

    Hay,

    Interessant finde ich deinen Hinweis zu php-fpm. In meinen WCPs habe ich diese Option gar nicht mehr.

    php-fpm steht schon seit längerer Zeit (ab PHP 7.3?) nicht mehr zur Auswahl.

    oha. Ok, ich betreibe meine Server und nur ein kleines Webhosting zum Spielen, da habe ich aber seit längerem nicht mehr reingeschaut. Trotzdem liegt mein Gedanke immer noch beim Timing, "hochoffziell" wird sich jetzt offensichtlich schon darum gekümmert... ^^


    ... und würde mich auch darüber freuen, wenn wir alle die Ursache berichtet bekommen - einfach um noch ein Stückchen Erfahrung zu sammeln.


    Ich drücke die Daumen.


    CU, Peter

    Hay,


    Zitat

    End of script output before headers: index.php

    leider kein Symphony Nutzer. Aber die Meldung spricht dafür, dass bevor die index.php Headerzeilen erzeugt, wird normaler Output erzeugt - was nicht sein darf.


    Da gibt es den "klassischen Fehler", dass vor dem einleitenden <?php noch eine Leerzeile oder Leerzeichen in einer manuell erstellten index.php vorkommt, das lässt sich aber bei einer unmodifizierten Symphony-index.php eigentlich ausschließen.


    Bleibt nur übrigt, dass dieser Output unter Umständen eine Fehlermeldung ist. Die sollte entweder geloggt sein (access log oder error log). Wie man bei symphony einen debug output erzeugen kann, weiß ich leider nicht, aber ggf. sollte es da auch noch eine Möglchkeit geben. Ein paar Experimente mit Lumen (bzw. Laravel) haben da erschreckend viel Output erzeugt, wenn ich das wollte.


    "Spaßeshalber" kannst Du ja mal versuchen, in den php-Einstellungen php fpm zu versuchen. Es sieht für mich nämlich außerdem so aus, als ob irgendwas im Timing zwischen nginx-Proxy und dem Apache schief gehen könnte - also enstprechende timeouts ggf. zu überprüfen und zu modifizieren.


    Soweit zu allgemeinen-nicht-symphony-spezifischen Hilfe.


    CU, Peter

    Hay,

    Bei einem Shared Hoster, mit Sitz in Montabaur, weiss ich, dass es anfangs ein Limit gibt in der Größenordnung wie hier,

    in einem vorigen Job habe ich in einer Firma gearbeitet, die ihre Domains dort hatte, von der Newsletter verschickt werden mussten (bis 9.000 pro Run, 2 x Woche). Es wurde extra ein Programm angeschafft, welches man auf x Mails pro Stunde limitieren konnte. Es war kein Webhosting, trotzdem war das notwendig. Dieser Provider hat unterstellt, dass ab einer bestimmten Rate der E-Mail-Zugang gesperrt wurde, weil angenommen wurde, dass die Zugangsdaten entwendet wurden.

    Auch mit dem limitierendem Programm kam es trotzdem mal vor. Dann musste ich in die Admin-Oberfläche, ein neues Passwort setzen, dann war nach einer gewissen Zeit die E-Mail wieder frei, dann musste ich das in die Software eintragen und die restlichen E-Mails konnten versendet werden. Das war ein Krampf.


    Auf meine Anregung, einen eigenen - nicht regulierten - E-Mailserver aufzusetzen oder es ggf. über einen Dienst wie Mailchimp zu machen, ist man leider nicht eingegangen. Lieber hat ein Mitarbeiter 4-8 Stunden vor einem Bildschirm gesessen und dem Programm beim Senden zugesehen...


    CU, Peter

    Hay,

    Ein Unternehmen mit 500 MA nur 100 Mails pro Stunde

    .... sollte seine E-Mail sowieso nicht durch ein Webhosting bedienen lassen. Egal ob "billig Hoster" oder nicht.


    Dass man im Webhosting 8000 2000 E-Mail-Adressen anlegen kann, ist meines Erachtens pure Augenwischere (und Angeberei) mit Zahlen. Klingt hart, aber Webhosting-E-Mail ist aus meiner Perspektive was für Freelancer, kleine Unternehmen und Vereine ohne aktives E-Mail-Marketing. Alles andere sollte professionell gemanaged werden, aber dazu fehlt oft die Kompetenz oder das Geld - oder das Wissen (oder die Erkenntnis ^^ ).


    Deswegen tauscht man sich hier aus und das auch über die negativen Seiten.


    CU, Peter

    Hay,

    Und habt ihr schon eine Alternative zu Jira, die dann im Februar 2024 Jira ersetzen kann?

    nein. Ich fürchte, die Bequemlichkeit treibt uns in die Cloud. Bei der vielen Ticketdokumentation die drinsteht, nachvollziehbar - aber auch nicht meine Entscheidung.
    Ein Ticketsystem für mich persönlich benutze ich nicht mehr (also ne /dev/null Migration)


    CU, Peter

    Hay,

    Netcup wird hier nicht aktiv, die gewünschte Interpreterversion kann im WCP/Plesk festgelegt werden (vor- und zurück je nach Wunsch).

    hm... habe gerade mal nachgeschaut... Netcup bietet ja selbst PHP 5.6 noch im Webhosting an. Bei einem anderen (längst gekündigten) Provider habe ich drei Jahre extended Support bezahlt, weil ich zu faul war, meine PHP-Version auf etwas umzustellen, was noch supportet wurde.


    Wordpress hat damit kein Problem, aber bevor man andere Webanwendungen testet, sollte man vor Umstellung ein komplettes Backup der verwendeten Datenbanken erstellen.


    CU, Peter

    Hay,


    hjok, schön, dass ich helfen konnte.

    dass der telefonische First-Level-Support in der Regel fast keinen technischen Support leisten kann.


    Aus Erfahrung mit anderen Providern kann ich versichern, dass ich bei anderen (u.a. bei dem man a und b zusammenzählen kann, a=b=1) ggf. noch viel, viel schlechter ist. Bei genanntem Provider bekam ich niemals eine wirklich hilfreiche Antwort. Nunja, wenn ich (ICH! :D ) etwas nicht lösen kann, sind es meist auch ... hm... ja ... speziellere Fragen. Mich regt dann nur auf, dass der andere dann nicht einfach sagt, "sorry, weiß ich nicht" sondern mir sogar manchmal versucht mit einer an DAUs adressierten ehrlichen Hilfestellung zu antworten. Dann rege ich mich noch viel mehr auf...


    Da ich selbst nur ein 75 Cent/Monat Webhosting hier betreibe (um ab und zu mal reinzuschauen), kann ich bei diesem Thema nicht richtig mitreden. Aber als Serverbetreiber habe ich anfangs schon mal gehört "Das ist fremdinstallierte Software, damit müssen Sie selbst zurecht kommen". Was ich auch verstehe. Auf der anderen Seite mache ich selbst Support für ein Produkt (ein elektronisches Fahrtenbuch mit Hardware, die in Autos eingebaut wird und mit einem Windows-Programm um die Daten zu verarbeiten). Wenn ich bei jedem Problem, was eindeutig auf Microsoft zurückgeht (z.B. abgeschaltete Dienste nach einem Windows Update), auf Microsoft verweisen würde, dann wären die Kunden nicht mit Microsoft unzufrieden, sondern mit mir, weil meine Software nicht funktioniert. Ist also auch eine gewisse Abwägungssache.


    Doch ich schätze mal, der "Level of Service" (d.h. bis wie weit geht man) wurde von oben mitgegeben. Hatte ich in einem ehemaligen Support Job auch (zur Einordnung: 1997), da hieß es, wir supporten unsere Software für Windows 95, später 98, später 2000, aber es durfte - verdammt noch mal! - niemand einem Kunden mit Windows NT helfen, selbst wenn man die Lösung wußte. Dafür gibt es gute Gründe, würde aber jetzt zu weit führen, nur soweit: Installieren konnte man die Software auf Windows NT - aber nicht mehr deinstallieren (sie war auch explizit nicht für NT freigegeben, es gab aber auch keinen Block für die Installation bei NT).


    Nur Kunden im Forum: Ja, fast ausnahmslos – leider! Das kann man besser machen.

    Naja, dafür ist der Kunden-Kunden-Support doch in der Summe erstklassig lol. Ich denke, das unterscheidet Netcup schon etwas von anderen Providern. Wo wir natürlich nicht helfen können, sind Dinge, die Technik-Internas betreffen, Ausfälle, echte Fehler.


    CU, Peter

    Hay,


    so, nachdem ich glücklich von einer Entwicklerkonferenz in Hamburg wieder zurück bin und Zeit habe...

    Teilweise 6-7 Sekunden bis zum ersten Byte, selten mal unter 2 Sekunden.

    Da ich selbst Crawler schreibe, kommt mir das bekannt vor. Abgesehen von technischen Gegebenheiten könnte das auch eine Bot-Erkennung sein. Also mal (mindestens) mit einem user-agent im Request arbeiten, der wie ein echter Browser aussieht.


    Wieso stirbt Jira? Sowohl on Prem als auch Cloud bekommen ganz normal Updates, neue Features und es wurde kein EOL für Business oder sonstiges verkündet.

    Wir haben Jira "relativ dick" hier im Einsatz (die Variante für 2.500 Euro + Extensions) und unsere Kunden auch. Mein Chef administriert das System, aber er bemerkt regelmäßig, dass alle Maßnahmen von Jira darauf angelegt sind, die Leute in die Cloud zu bringen und dass die eigen betriebene Jira Instanz "bald" (~2024?) nicht mehr mit Updates versorgt wird. Meine 10 Euro-Instanz nutze ich nicht mehr und ein Kollege wird seine bald auch nicht mehr benutzen.


    Mit der Cloud-Lösung hast Du einen neuen single-point-of-failure: Atlassian selbst. Die haben ja fünf Jahre allein gebraucht, um von MySQL 5 auf 8 zu kommen, Bugtickets werden gefühlt nicht bearbeitet und die Security-Meldungen enthalten häufig eine Formulierung nach dem Motto: "Wenn Du nicht sicher bist, ob Du sicher bist, nimms halt vom Netz.... bis wir (irgendwann) gepatched haben". Die eigene Instanz kannst Du immerhin so absichern, dass niemand von außen drauf kann... aber die Cloud?

    Obwohl ich recht gerne mit Jira arbeite als Tool, aber dieses Gebahren stößt mich immer mehr ab.


    CU, Peter

    Hay,


    ja, Plesk hat eine ziemlich umfassende API. Habs selbst mal ausprobiert zur Erstellung von Subdomains über ein Webformular - quasi Kunde erstellt für eines meiner Produkte seine Landingpage mit individueller Domain und ist sofort live, ohne dass ich was tippen muss. Hab's dann aber wieder aus den Augen verloren, ich weiß gerade noch nicht einmal, wo der dazu gehörige Code liegt :/

    CU, Peter

    Hay,


    und bin grad mal den Links von Micrsoft in der Integritätsprüfung gefolgt und finde es wunderbar...neuenpckaufen.JPG


    "NEUEN PC KAUFEN". Folge ich dem Link, komme ich tatsächlich in den Shop von HP, also meinem Hersteller... honni soit qui mal y pense.


    CU, Peter

    Hay,

    ich habe den Eindruck, Microsoft macht das, wie Microsoft will.

    Aufgrund eines Fehlers im Programmcode ließ sich eine Beta von Windows 11 auf einem Pentium 4 erfolgreich installieren. Auf meiner täglichen Workstation, die zwar mittlerweile in die Jahre gekommen ist, aber in der zwei Xeon X5650 CPUs laufen mit 96GB und "allem Scheiß der ins Gehäuse passt", wird Windows 11 nicht laufen - Anzeige mit rotem x. TPM und secure boot sind "nur" gelbe Ausrufezeichen.

    Ich lege vorerst auch keinen Wert darauf.

    Und ich werde nochmal einen fünfstelligen Betrag für eine neue Workstation erst dann ausgeben, wenn ich will und nicht, weil was von Microsoft nicht läuft, was ich nicht brauche.


    CU; peter

    Hay,

    Meine Idee ist jetzt, mehrere VPS 200 G10s (kleinstes Paket) parallel laufen zu lassen. Jeder VPS hat eine eigene IP und es können also alle gleichzeitig "schaffen" und sich die Arbeit teilen.

    wenn ich google wäre, wäre ich schlau genug zu erkennen, dass alle diese IPs zu einem Providernetzwerk gehören und würde Gegenmaßnahmen für das ganze Netzwerk treffen. Ich würde mich, sobald die Prügel verteilt werden, dann auch mit anstellen ;) ... Heugabeln, Fackeln, Schmiedehämmer usw.


    Lach Dir ein Proxynetzwerk an, bitte.


    CU, Peter.

    Hay,

    , daher sollte es hinsichtlich der Nachbarschaft eher weniger Probleme geben.

    war ein bißchen mißverständlich. Ich meinte ja eigentlich bei allem außer dem Core, d.h. Du teilst Dir den L1/L2/L3 Cache, die Pipelines usw mit den anderen Kollegen. Es macht auch insofern ein kleines bißchen etwas aus, inwieweit der Core in den Turbo-Modus gehen kann... sind alle Nachbarn vom inaktiven Typ, dann können Deine Cores hochtakten... und umgekehrt.


    CU, Peter

    Hay,

    In der Summe bestätigt das meine Routingproblemvermutung - irgendwas läuft mit dem vlan schief...die Leistung sollte doch keinesfalls schlechter sein, die die der öffentlichen IP

    gut, wenn wir dann auf dieser Infrastruktur sind, habe ich noch zwei Gedanken:


    1 - Das CloudVLan free hat ja nur 100 MBit, während der RS8000 mit 2.5 Gbit angeschlossen ist. Das ist ein erheblicher Geschwindigkeitsunterschied und ggf. gibt es hier irgendwo einen Buffer der über- oder unterläuft - und deswegen Pakete verloren gehen, die einen Resend auslösen. Direkter Server-Kontakt per 2.5 GB, dafür öffentlich, ist keine solche Geschwindigkeitsänderung. Halte ich aber IM GENERELLEN eher für unwahrscheinlich, weil ich selbst das tägliche Backup meines RS8000 auf einen anderen VPS laufen lasse und da gingen seit einem Jahr etliche TB durch, ohne dass ich eine Störung verspürt habe. Ok, mir ist aber auch egal, wie lange das wirklich braucht, aber als ich die letzten Male gemessen habe, waren es um die 10MByte/Sek, also passt. Und es sind ja große Dateien, nicht viele kleine Datenfragmente durch die SQL-Abfragen. Trotzdem ist es für mich einen Gedanken wert.


    2 - Man könnte ja eine Zwischenlösung zwischen dem VLan und der öffentlichen IP gehen - über ein eigenes kleines VPN per Software. Der Transfer zählt natürlich zum Trafficverbrauch, also nicht unbedingt ideal, wenn da wirklich viele Abfragen drüberlaufen. Aber den VLan Traffic kann man noch komprimieren (mein OpenVPN macht das), dadurch tauschst Du Bandbreite und Latenz gegen CPU-Last, gewinnst aber die 2.5 GBit zurück und ggf. besteht die Ungewissheit wegen oben 1 auch nicht mehr.


    CU, Peter.

    Hay,


    wie aus den Beiträgen anderer hervorblitzt, bin ich der Meinung, dass hier ggf. mit Kanonen auf Spatzen geschossen wird.

    RS 8000

    Unterbau von Wordpress geschuldet und kurzfristig nicht änderbar

    Ich betreibe auch einen RS 8000. Ich habe mehrere Wordpress Instanzen laufen, teils mit einer unnötigen Anzahl von Plugins, teilweise komplex, Webserver (Apache & nginx-Proxy), MySQL alles lokal auf diesem einen Server. Ich habe nirgens, never irgendwo Wartezeiten von 2.5 Sek, außer ich sehe in der Laufzeitanalyse, dass irgendwo eine XHR-Anfrage länger auf ein externes Ergebnis wartet oder der Abhängigkeitspfad von unterschiedlichen JavaScripts einfach falsch aufgebaut ist - was z.B. durch async laden repariert werden könnte.


    Deswegen (sorry, wenn das jetzt etwas hart klingt) glaube ich nicht, dass es die Datenbank ist. Ich würde so herangehen und erst mal schauen, ob MySQL tatsächlich (lokal) auf der Console dieselben Anfragen genauso langsam beantwortet. Dann ist meist im Datenbankdesign etwas falsch und es ist häufig damit getan, einen weiteren Index zu erstellen oder bei JOINS darauf zu achten, dass sie dieselben Feldlängen und Typen haben, damit nichts implizit konvertiert werden muss.


    Oder - die SSD-Performance ist nicht optimal - gibt hier mehrere Thread dazu, dass es der falsche virtuelle Treiber sein kann oder es einfach ein Problem mit dem node gibt.


    Der RS8000 ist nämlich so gesehen sauschnell. MySQL war bei mir noch nie ein Engpass und ich habe teilweise Nutzer drauf, von denen 150-200 über 20 Minuten parallel eine Anwendung von mir nutzen, die fleißig SQL-Abfragen über API macht (wobei Webclient und der API-Server auf demselben System liegen). Ok, zugegeben, meine SQL-Anfragen sind recht durchoptimiert...


    mehrere Anwender

    Das ist jetzt genau die Frage, was ist "mehrere". 1, 10, 100, 1000, 10000? 200-300 steckt der RS 8000 ohne Maßnahmen normalerweise locker weg... natürlich kennen wir ja auch nicht Dein sonstiges Setup und wieviele Besucher Du überhaupt erwartest...


    CU, Peter

    Hay,


    "bedingt". Die Herausforderung ist hier, dass Du nicht Prozessoren vergleichst, sondern dedicated Cores von diesen Prozessoren und die Architektur ist schon recht unterschiedlich... der Epyc hat ne Menge Cores & Threads mehr, aber nicht im selben Faktor Cache... dazu kommt, dass Du so mit mehr Leuten (deren Inanspruchnahme von Leistung Du nicht kennst) dieselbe CPU teilst, bei Intel sind es weniger CPU-Kollegen...


    Objektiv wäre es der AMD Epyc (https://versus.com/en/amd-epyc-7702-vs-intel-xeon-gold-6230).


    Die single thread performance ist beim AMD allerdings leicht schlechter als beim Intel, dafür hat der AMD PCIE 4 statt 3 wie beim Intel. Kann also durchaus sein, dass dies bei der SSD-Performance durchschlägt. Aber auch da teilst Du Dir die PCIE-Lanes mit mehr Nutzern als beim Intel. Spannender Vergleich...

    Ungefähr vergleichen kannst Du es, sobald jemand hier seinen geekbench für den Intel postet und ein anderer seinen für AMD :D... los, los!


    CU, Peter

    Hay,

    Oder übersehe ich da irgendein spezielles Szenario?

    das Dumme ist, dass es immer mehr Szenarien gibt, die man sich nicht vorstellen kann, als die, die man sich vorstellen kann. Cross-Site-Scripter sind schlau.


    Ich selbst habe PHP_SELF seit jetzt bestimmt 10 Jahren nicht mehr verwendet, da action="" dassselbe macht und auch noch weniger zu schreiben ist.


    CU, Peter