Ladezeit gefühlt zu langsam Webhosting 1000 SE

  • Hallo zusammen,


    für mich persönlich ist die Ladezeit meiner Website "zu langsam".


    Hilft hier nur ein Webhoster wechsel, oder was kann ich unternehmen, um abhilfe zu schaffen.

    Gerne stelle ich nähere Informationen bereit, sagt mir nur welche.


    Über das Firefox Entwickertool konnte ich über die Netzwerkanalyse das hier ermitteln:

    76 Anfragen

    3,04 MB / 1,20 MB übertragen

    Beendet: 5,49 s

    DOMContentLoaded: 1,89 s

    load: 5,01 s


    Was den ganzen "log" angeht, bin ich mir nicht sicher ob ich das hier so offen posten sollte, da ja auch dann die Seite und nähere Details preisgegeben werden.

  • ich denke mehr Details wären schon hilfreich.

    Wie ist die Seite strukturiert, kommt ein Interpreter wie PHP zum Einsatz.

    Wird content extern nachgeladen.

    Welches Framework wie z.B. WordPress kommt zum Einsatz.

    Wird ein Cache verwendet, etc.


    Bei der Ladezeitanalyse hilft es auch die Zeitfresser genauer zu analysieren.

  • Mehr Informationen wären aber schon wichtig. Ist es eine einfache HTTP Seite (denke ich bei der Anzahl der Anfragen ja nicht). Denke hier ist eher das Problem mit den SQL Abfragen, das die eben nicht mehr im Cache des Servers sind und er erstmal wühlen darf bis die Antwort kommt.


    Wenn du die Seite 2x hintereinander lädst sollte es schneller werden. Einzige was hier dann helfen würde zu versuchen die Abfragen im Cache zu behalten (z. B. Cronjob regelmäßig die Seite aufrufen). Oder eben die Seite dann statischer machen (da gibt es bei WordPress z. B. genug Plugins, die aus der dynamischen Seite eine Statische macht und die dann für den Kunden ohne SQL Abfragen anzeigt)

  • Ja, dort lese ich raus, dass durch Drittanbietern (google tag manager, analytics und recaptcha) letztere davon die meiste Zeit blockiert.

    Aber kann man das überhaupt vermeiden?


    Ich habe nun mich durch YT durchgestöbert und bin auf das Plugin Autotimize gestoßen.

    Ich wende das mal an und vergleiche dann, oder?

  • Ich habe mich auch mal eine zeitlang etwas intensiver mit SEO auseinandergesetzt.

    Festgestellt habe ich dabei, dass das ganze Feintuning kaum etwas fürs Ranking bringt. Google lässt sich inzwischen nicht mehr so leicht austricksen.

    Das einzige, was meiner Erfahrung nach wirklich was bringt, ist guter und originärer Content. Dann spült es die Seite mit der Zeit von ganz alleine nach oben in den Suchergebnissen. (Ist die Seite Scheisse hilft auch SEO nix. :))

  • Ich habe mich auch mal eine zeitlang etwas intensiver mit SEO auseinandergesetzt.

    Festgestellt habe ich dabei, dass das ganze Feintuning kaum etwas fürs Ranking bringt. Google lässt sich inzwischen nicht mehr so leicht austricksen.

    Das einzige, was meiner Erfahrung nach wirklich was bringt, ist guter und originärer Content. Dann spült es die Seite mit der Zeit von ganz alleine nach oben in den Suchergebnissen. (Ist die Seite Scheisse hilft auch SEO nix. :))

    Dito, so sehe ich es auch.

    Wendet man sich an einen "Experten" sagt er, man müsse Zeit etc. investieren was widerrum mit hunderten von Euros, im Monat, kosten soll...


    Wie dem auch sei....

  • SEO-Tricks bei Google sind mittlerweile so wirksam, dass "Profis" die Seite zwar noch optimieren - aber hauptsächlich für die anderen Suchmaschinen, bei denen das noch was bringt. Bei Google verlassen sich heutzutage viele eher auf Anzeigen per Google Adwords. Ich habe für einen Bekannten eine Seite erstellt schon vor vielen Jahren (mittlerweile echt veraltet, da steht jetzt endlich mal ein Relaunch an im nächsten Jahr). Jetzt hat ihm ein Dienstleister eine zusätzliche Seite erstellt, eine Art erweiterte Landingpage, die pro Telefonanruf (per Link auf eine Servicenummer) abgerechnet wird. Da hat man einfach eine branchenspezifische Vorlage hergenommen und dann Name, Stadt, Telefonnummer und Suchwörter ersetzt, zudem sind die Suchwörter noch in der URL. Die wirkliche Telefonnummer oder eine E-Mail Adresse findet man natürlich nicht, dadurch würde der Dienstleister potenziell Geld verlieren. Bei Bing, DuckDuckGo und anderen funktioniert das sehr gut, die Seite rankt dort bei den natürlichen Suchergebnisse - ohne Bezahlung - sehr gut. Bei Google gar nicht, ich gehe davon aus Google durchschaut den Schwindel (Duplicate Content, auch wenn einzelne Wörter ausgetauscht werden) Deswegen hat der Dienstleister da Adwords verwendet, was sich für den Dienstleister natürlich immer noch lohnt angesichts der Einnahmen pro Anruf. Ohne Adwords findest du die Seite unter den natürlichen Suchergebnissen nicht auf den ersten 10 Seiten, während die von mir erstellte Seite immerhin auf Platz 1-2 der natürlichen Suchergebnisse angezeigt wird (was nicht heisst, dass ich da besonders viel SEO-Arbeit reingesteckt hätte, sondern dass die Konkurrenz eher mau ist).


    Ob sich SEO über die Basics hinaus lohnt und notwendig ist kommt auf die Seite an. Für einen Shop oder Dienstleistungen mit starker Konkurrenz wahrscheinlich schon. Für eher lokale und/oder originelle Themen/Produkte mit wenig Konkurrenz wohl eher nicht.


    Wie dem auch sei, ja, ich habe Wordpress bei anderen Hostern schon schneller laufen sehen als bei netcup. Ich selbst verwende Wordpress eher selten, aber bei "meinem" CMS gibt es diese Probleme auch, TTFB bis zu 30 Sekunden(!) wenn die Seite mal einen Tag oder länger nicht aufgerufen wurde. Die Entwickler haben das damals analysiert und kamen zu dem Schluss, dass langsame IO und das allmähliche rausfallen der PHP-Skripte aus dem OPCache die Hauptursache seien. Ich löse das bei wenig besuchten Seiten mit einem stündlichen Abruf per Cronjob (und indem ich cache was gecacht werden kann). Bei Seiten mit vielen Zugriffen braucht man das mit dem Cronjob aber natürlich nicht. Deswegen fällt das oft nur in der Entwicklungsphase auf, ist die Seite dann produktiv genügen in der Regel die normalen Zugriffe damit das Problem verschwindet.

  • Ja das mit dem Cache ist schon manchmal obskur - je mehr Aufrufe die Seite hat, desto schneller lädt sie manchmal. Auf den ersten Blick etwas paradox

    Meine Minecraft-Plugins auf SpigotMC (Open Source): www.spigotmc.org/members/mfnalex.175238/#resources

    Discord: discord.jeff-media.com

  • Ja das mit dem Cache ist schon manchmal obskur - je mehr Aufrufe die Seite hat, desto schneller lädt sie manchmal. Auf den ersten Blick etwas paradox

    Das ist eigentlich völlig normal, solange die Zugriffe nicht so viele sind, dass der Webserver nicht mehr hinterherkommt. Es bleibt halt einfach alles oder sehr viel in den verschiedenen Caches. Allein PHP hat ja schon mehrere Caches. OPCache, realpath-cache, APCu, ... MySQL ebenso. Dann kommt (hoffentlich!) noch ein HTTP-Cache dazu. Letztlich fliegen gecachte Inhalte irgendwann aus einem Cache wieder raus, sei es weil von vornherein die Cachezeit begrenzt wird oder weil neue Inhalte gecacht werden, irgendwann der Cache voll ist und somit ältere, selten genutzte Inhalte gelöscht werden um Platz zu schaffen. Letztlich sind alle wichtig um eine schnelle Seite zu haben. APCu und realpath cache fallen meines Wissens im netcup Webhosting komplett aus. Der realpath cache eben deshalb, weil open_basedir aktiv ist. Damit wird der realpath cache automatisch deaktiviert.


    Wenn also für ein Seitenaufbau benötigte PHP-Skripte z.B. aus dem OPCache geflogen sind, weil sie eben lange nicht benutzt wurden, muss das Skript erst neu in Bytecode umgewandelt werden. Schon schlimm genug, aber dazu braucht es womöglich noch eine ganze Latte an anderen Skripten, die z.B. mit require oder include eingebunden werden. Von denen muss dann erst mal (u.a.) der Pfad ermittelt werden, wobei der realpath cache ziemlich viel Zeit sparen würde. Aber er ist ja leider nicht aktiv. Das kostet nochmal zusätzlich jede Menge Zeit. Und bei umfangreichen Anwendungen, wozu eben auch Wordpress zählt, summiert sich das halt schnell. Wenn nichts mehr - oder nur noch weniges - gecacht ist merkt man halt erst, wie lahm PHP wirklich ist wenn alles von Null auf neu aufgebaut werden muss.