Posts by Schupp

    Wenn du im Namen der Domain nur E-Mails/Formulare versenden möchtest, musst du die spf und dkim Einstellungen bei St**** erweitern. Andererseits, mach einfach SMTP.. da kannst du dir die reply to und from bei St**** aussuchen. Also du du hast das Postfach formular@meinedomain.de. dann machste SMTP mit dem Login, setzt aber Absender und replyto auf eine andere Email dieser Domain.


    Edit: kann man machen, St**** hat eine gute Email Verwaltung, Archivierung, Mailinglisten etc. Wenn man jetzt mit 100 Mails als z.B. Firma Umziehen möchte und das Jahrelang dort hatte, hat man eine Menge Arbeit vor sich und muss sich Fragen ob sich das lohnt. Ich hatte das mal simuliert mit ispconfig umgesetzt.. da gab es einige Fallstricke die Tief im System gelöst werden mussten.

    Ja, dass Problem ist aber, bist du im CCP, kannst du einfach auf "Autologin Web" klicken und bist im Plesk, ohne dein Plesk-Passwort einzugeben. Anders ist es im Plesk, da kannst du dich direkt einloggen, aber ohne Zugriff auf das CCP.

    Das spielt doch keine Rolle.. Ist nur meine Vermutung.


    Je nach Plesk Konfiguration kann der PHP-User eine User-Cron Datei im Hosting ablegen. (Fiel mir bei /bin/psa/chrootsh in der Email ein)


    Also je nach Plesk (Habe kein Hosting bei Netcup, keine ahnung) brauchst du für die Plesk-Aufgaben keinen einzigen Login, sondern kannst eine "~/.crontab oder so" Datei anlegen. bzw. auch ein "crontab -e" in der Shell.. Das sieht man dann als Aufgabe/Plan im Pleskpanel ;)


    Also bräuchte man für die Aufgaben im Plesk Panel garkeinen Login, sondern lediglich ein ausführbares PHP Script im Userspace was durch einen Wordpress Hack erfolgt.


    Die Hackerbots sinds so intelligent, das sie eine Shell erkennen und PHP nutzen und sich immer quer kopieren, entwerder der Cron das Script, oder das Script den Cron..

    Der Spam wird ja auch immer mehr.


    Ich fand z.B. das Hotmail (habe dort eine E-Mail seitdem es die gibt) Jahrelang in Sachen Spam super zuverlässig war, während alle woanders geklagt haben, hatte ich meinen Junk Mail Ordner in dem nicht eine Mail falsch ein/aussortiert wurde.


    Und heute?


    Spam in Massen:


    Header:

    Betreff: Nickname, Ihre Email wurde ausgewählt.

    smtp.helo=dedeffjr.mysdg.se (Anscheinend stimmt nur die Helo)

    header.from=dhl.de

    From: Amazon Gutschein, Amazon Gutschein @dhl.de>

    Sender: message@my.zalando.de @dhl.de>


    Aber im Inhalt eine kopierte DHL Nachricht die noch einen echten Werbelink von Baur.de hinterlegt hat. :D:D:D

    Man kann als Absender versuchen, darum herum zu arbeiten, aber letztendlich muss man sich fragen, wie viel Arbeit und Geld einem das Wert ist, wenn am Ende doch keine Zuverlässigkeit erreicht werden kann


    Ich denke das Problem sind die immer wieder neu gestärkten Sicherheits Standards gegen Spam. Wenn ich einen Newsletter einmal im Monat an 10000 User schicken möchte, sind 20 Mails an die wichtigsten Provider das kleinste Problem. Wobei diese Handvoll Provider wohl am meisten mit Spam zu kämpfen haben. Ein Problem haben natürlich WebAdmins und Designer die für 100 Kunden die Homepages einrichten/Verwalten und dann mit solchen Problemen konfrontiert werden.


    Wir hatten das letztens bei einem anderen großen Hosting Provider das "PHP Mail()" alle E-Mails verschluckt hat, es hat einfach von heute auf morgen einfach nicht mehr funktioniert. Es wäre ein Problem auf unserer seite, ich sagte am Telefon nur noch "Ich programmiere seit 20 Jahren in PHP, also wenn ich keine Mail mit PHP verschicken kann... weiß ich auch nicht mehr"... 10 Tage später trudelten dann erst die Delivery Mails ein, da hat irgendein interner Filter ohne Fehlerlogs zugeschlagen. Wir hatten dann aber schon von PHP Mail() auf smtp Direkt umgestellt, das dann problemlos lief.

    Im Grunde bedeutet es nämlich für mich: noch ca. 3 Wochen warten bis ich Mails an t-online Empfänger senden kann. Großes Kino.

    hatte die anderen Beiträge nicht gesehen.

    Ich benutze Wordfence, das deckt schonmal sehr viel ab. Im moment werden aber auch richtig aktiv Wordpress Seiten von Bots abgescannt.


    Das Problem bei Wordpress sind ja eigentlich die Plugins die nicht aktuell gehalten werden. Da sagen auch andere Provider mit 20€ "24/7 Support" -> "das ist Ihr PHP-Script".


    Ich hatte eine Wordpress Seite erstellt (Nicht bei Netcup) und war drüber hinweg gekommen (neue Domain, keine Einträge, webseite nur kurz eingerichtet), 2 Wochen später waren alle Wordpress Seiten in dem Space gehackt (die Bots scannen automatisch auch die verzeichnisse darüber bis keine Zugriffsrechte mehr bestehen), am einfachsten bzw. schnellsten ist wenn man ssh zugriff hat und den webspace nach neuen/geänderten dateien scannt.


    Außerdem ist ein "bereinigtes" Wordpress immer eine Ansicht des Betrachters.

    Jo, danke stimmt schon.


    Dann werde ich das wohl so machen.


    Ich ziehe seit dem ich vorhin die Frage gestellt habe in Erwägung das System auf einen neuen RS umzuziehen, da dieser schon 5 Jahre oder älter ist. Da könnte man noch recht relaxed das System optimieren, Scripts etc. auf das neue System anpassen und alles überprüfen.


    Da hat man dann nur die 24 Stunden für den IP Wechsel als Ausfall, bzw. da gibts dann noch Fail Over IP.

    Moin,


    ich möchte bevor ich endlich mal Debian Stretch auf Buster Update ein Backup machen und stehe das erste mal vor einem OS Upgrade ohne den server zu wechseln. (Problem: da könnte ja was schief gehen)


    Wie würdet ihr das am besten machen? reicht ein Rsync des Systems als Snapshot, bzw. ist das zuverlässig?



    Wir haben eine 2TB Festplatte, davon 900GB belegt. Ein kompletter Snapshot des Dateisystems scheint mir wie mit einer Kanone auf Spatzen zu schiessen und kostete das letzte mal viel Zeit (Vorteil, mit einem Klick alles wieder da = okay.. dauert aber bestimmt einige Stunden? )


    Die wichtigen Daten werden schon auf einen Storage gesichert. Das Betriebssystem ist ja an sich nicht so Riesig. Das system habe ich mir schon mit Rsync auf mein NAS gezogen und wollte das mal testweise in Qemu holen um das Update einmal simuliert durchzuspielen.


    Solang das System hochfährt bekomme ich das schon geregelt, aber ich woltle mich vorher mit dem "Was wäre wenn" beschäftigen. :)

    Bei Outlook muss man seine IP beim snds anmelden, Gmail hat etwas ähnliches. Bei web.de und GMX war es eine Email mit einer erklärung was man macht und wieso einem das wichtig ist. Bei T-Online ist es wichtig ein vernünftiges Impressum auf der zugehörigen Domain zu haben.


    Bei Outlook und Gmail kann man sich beim Testaccount auf die Whitelist setzen, die Email kommt durch, im Header steht dann trotzdem das Problem.


    Ich benutze meist appmaildev zum testen, denen muss man eine Test email zur Analyse schicken.

    Das meinte ich nicht.

    .......

    Beispiel: Wenn z.B. ein Wordpress läuft, könnte man direkt dort ansetzen.

    Achso ja stimmt,es ist Wordpress.


    Ich habe bei WpSuperCache die möglichkeit eine CDN Domain auf Static Patterns anzugeben, so bin ich auf die Idee gekommen. Klar, vielleicht gibt es ein Addon das die Dateien doppelt pusht, bzw. da beim Hochladen ein Script startet.


    Gruß

    Danke schonmal für die Antworten,


    der VServer läuft mit ISP-Config+Apache.


    intern keine Frage.. aber so?


    1. http://www.example.com (normales Webhosting) macht bei allen Bildern ein static.example.com aus dem Pfad.

    2. static.example.com ist ein Server in einem anderen Rechenzentrum.

    3. der static Server soll jetzt bei einen "Datei nicht vorhanden" auf z.B. static.example.com/bilder/hund.jpg die Datei von www.example.com/bilder/hund.jpg abholen.


    EDIT: Ja okay, nginx könnte bei nicht vorhanden die Bilder URL auf eine externe domain weiterleiten und über die access.logs könnte man die Files mit 301 in den cache holen..

    Moin,


    wir haben eine große Homepage bei einem recht guten Hoster, welcher uns aber dennoch bei größeren Massenaufrufen Limitiert.


    Ich möchte jetzt die Bilder auf einen vorhandenen VServer auslagern, also im Prinzip ist die URL Änderung der statischen Dateien auf dem Webhost kein Problem, ich kann also einfach Statische Dateien ab jetzt auf eine Subdomain umschreiben.


    Möglichkeiten:


    1. ich synce die Dateien mit rsync oder ftp.. Nachteil, neue Dateien werden eventuell zu spät erkannt.


    2. Ich habe mir Varnish angeschaut, das scheint es schon ungefähr zu treffen, beisst sich aber mit nginx mit der vorhandene ISPConfig Version.


    3. Eigene Idee: Wenn die URL auf dem Static Host ein 404 generieren würde, die url per htaccess Conditipon an ein "Fetch-Script" übergeben und das erste mal Eine Weiterleitung zur Originalen Datei. (könnte klappen, muss mich aber noch einlesen)


    Fällt da jemandem noch etwas ein ob und wie das klappen könnte?


    Theoretisch kann man das auch irgendwie proggen mit irgendeinem server, aber welchem? in einigen Programmiersprachen wäre das ein 10 Zeiler, aber die Performance wäre ja nicht so prall.


    Request -> Cache?Fetch:Cache

    Wenn Du keine Wildcard-Zertifikate brauchst, ist die DNS-Challenge in der Regel auch gar nicht notwendig. Oder gibt es bei Deinem Setup Gründe, die gegen die reguläre HTTP-Challenge sprechen? :)

    irgendwie habe ich da keine Auswahl die Wildcards auszuschließen..


    Danke da muss ich mal genauer schauen.

    Hi,


    ich erledige das erneuern der API Keys im moment alle 3 Monate per Hand, momentan wird das ein bisschen viel.


    Schwirrt hier im Forum schon ein Plesk-Script umher das mir das quasi über die Api abnimmt?


    im Prinzip müsste man ja nur alle10 Wochen ein Renewal der Domains starten bzw. im Cli überprüfen und die Daten aus der PLESK DB über die API in die DNS Records bringen?


    Gruß, Schuppeste

    Die richtige Antwort wäre übrigens gewesen das Mod_rewrite garnicht auf Post Parameter zugreifen kann...

    dachte ich hätte mal gelesen das die Post Daten in Query umgewandelt werden.


    Also funktioniert das so erstmal garnicht. :!:

    Mit dem virtuellen Ordner ist klar 😊


    Das war ja nur zur Veranschaulichung, den tmpfs Ordner könnte ich ja auch in den webcache mounten oder nicht?


    Der Cache kann sich im Prinzip auch mit der Zeit aufbauen, mit nem wöchentlichen Backup und Rückschreiben der Dateien bei Neustart ist das dann halb so wild. Geht ja auch ohne Cache.


    Nee, Stiftung Warencheck 🤣

    Moin,


    ich habe in einer Post Anfrage Variablen für PHP.


    Wenn ich diese PHP Datei Version als Html cachen will muss ich quasi 1-3 der Variablen in den Cache Dateinamen integrieren.


    Da müsste ich sogar eine der Variablen mit Regex zerlegen. Meine Frage ist nur wie man das in der htaccess umsetzt.

    Der relevante generierte unterschied ist unveränderbar in den POST Parameter z.B. _POST->request->url->bla.de/meineKategorieren/dieseKategorie_12345.

    Ich müsste in der htaccess die 12345 isolieren und als meinPHP-12345.html mit rewrite/redirect umleiten.


    im moment habe ich eine Redis Weiche integriert die die meisten SQL-Abfragen und aufwendiges PHP umgeht, Lohnt sich das trotzdem?


    Vorhaben:

    1.Tmpfs im Ram erstellen.

    2.nginx/apache umleitung wenn tmpfs/cachefiles/meinphp-12234.html nicht vorhanden ist auf das PHP zurückgreifen und dort die Ausgabe in die datei meinphp-12234.html cachen.

    3.Bei Änderungen die html löschen.


    Nachtrag, kaum gepostet schon die erste Idee :|

    Url Beispiel:

    https://test.de/kategorie/request?cmd=meinekategorie&page=disp_kategorie&url=https://www.tester.eu/unsere/kategoriebeschreibung/?kategorie=item_6103


    Ergebnis: https://test.de/tmpfs/cache/me…iedisp_kategorie6103.html

    Apache Configuration
    RewriteEngine on
    RewriteCond %{QUERY_STRING} ^cmd=(meinekategorie)&page=(disp_kategorie).*url=.*[_](\d.*)$ [NC]
    RewriteRule ^kategorie/request.*$  /tmpfs/cache/%1%2%3.html$1? [R,L]


    Danke schonmal,

    Gruß,Schuppeste