Beiträge von CmdrXay

    Hay,


    ich weiß nicht, ob das beim Webhosting geht, aber bei meinem RS konnte ich die Domains vorher schon angelegt und die Postfächer auch. So habe ich mit imapsync (ein anderes Tool, von der Kommandozeile) schon vorab vom Server aus synchronisieren, obwohl die Postfächer hier noch nicht aktiv waren. Da waren z.T. Archivpostfächer dabei, die über 30.000 Mails gespeichert haben (ok, gibt andere Wege, aber ich bin auch ein bisserl faul manchmal). So hätte ich theoretisch nur wenige Mails in der Übergangsphase verloren. Habe ich aber nicht.


    Im anderen Fall war es noch einfacher, das war eine Plesk (bei Hätster) zu Plesk (bei netcup) Migration - Plesk hat dafür ein Modul. Das hat mir glatt alles inkl. Domains und Datenbanken und Mails übernommen und nur dort gezickt, wo ich selbst am Dateisystem mit ein paar Rechten rumgespielt habe.


    CU, Peter

    Hay,

    Das heißt, ich ziehe erst die TLD um, erstelle nach erhalt der TLD manuell die 30 Postfächer, und übertrage dann die Daten mit mailsync für jedes Postfach einzelnd?

    Gut erfasst.

    Wie sieht das für den jeweiligen Postfach-Inhaber aus? Muss er in Outlook/Thunderbird ein neues Postfach mit den neuen Daten anlegen, oder bei dem bisher bestehenden die Zugangsdaten ersetzen?

    Es genügt, die Zugangsdaten (inkl. Server) zu ersetzen, sofern natürlich die E-Mail-Adresse gleich bleibt.


    CU, Peter

    Hay,


    und bitte nicht remote deskop als Fernadministration, sondern eine andere Fernwartungssoftware. RDP ist auf Windowsservern immer noch heftiges Angriffsziel, also alles diesbezüglich schließen.


    CU, Peter

    Hay,


    ich gucke mich gerade halb-blind und habe mittlerweile alles vergessen, was ich jemals über rewrite wußte. Aber alles müsste stimmen. Trotzdem geht es nicht. Also kann es nur etwas ganz einfaches sein, was wir vielleicht alle sofort überlesen.


    Versuche doch mal die RewriteCond ohne den Punkt zu escapen... also

    Code
    RewriteCond %{HTTP_HOST} ^unga-bunga.de$ [NC]

    Dann weiß ich aber auch nicht mehr weiter...

    CU, Peter

    Hay,


    nur um sicher zu gehen: Aus der vhost-Definition bzw. Apache Konfiguration hast Du alles related rausgenommen, also verbleibend


    Code
    <VirtualHost *:80>
    
            ServerAdmin webmaster@domain.com
            DocumentRoot /var/www/unga-bunga.de/public_html
            ServerName unga-bunga.de
         
            ErrorLog ${APACHE_LOG_DIR}/error.log
            CustomLog ${APACHE_LOG_DIR}/access.log combined
    
    </VirtualHost>


    und den virtualHost *.443 ähnlich "nackig", mit dem selben DocumentRoot (bzw. die vom port 80 mit DocumentRoot von der an port 443 - eben war der nämlich vermutlich abweichend).


    Dafür dann die .htaccess als /var/www/unga-bunga.de/public_html/.htacccess (bzw. dem Pfad vom vhost@443)


    Die .htaccess wiederum Dateirechte 644 und group/user vom Webserver.


    CU, Peter

    Hay,


    lol, das habe ich aber auch noch nicht gesehen. Mein Firefox bekommt den 301 und springt auf www, der Chrome geht direkt auf die Domain. Wenn ich http:// davor schreibe, bekomme ich die ungesicherten Ubuntu Apache 2 Defaut page, also kein forwarding http->https.


    Versuch mal .htaccess mit folgender Variation:


    Apache Configuration
    RewriteCond %{SERVER_PORT} 80
    RewriteRule ^(.*)$ https://www.unga-bunga.de/$1 [R,L]
    
    RewriteCond %{HTTP_HOST} !^www.unga-bunga.de$ [NC]
    RewriteRule ^(.*)$ https://www.unga-bunga.de/$1 [L,R=301]


    CU, Peter

    Hay,


    also wenn "hier steht eine neue Internetpräsenz" mit der typischen netcup petrol-Farbe kommt, dann ist die Domain noch "geparkt" und nicht wirklich zugewiesen.


    [Edit: ggf. falsch. Ich habe eine geparkte Domain, das Parking sieht da anders aus, "http://arbeitsplaene.de/" aber ich bin mir sicher, das in petrol schonmal gesehen zu haben]

    Du kannst mir gerne per PN (oben "Konversation") mal einen unzensierten Screenshot von Deinen DNS-Einstellungen für den Server schicken, auf dem jitsi läuft - ich schaue es mir dann mal an (aber erst morgen...). Ansonsten in der Zwischenzeit einfach mal die DNS-Einstellungen der Domain im CCP aufrufen und nochmals auf Speichern drücken. Ich hatte es auch schon mal, dass erst beim zweiten Speichern tatsächlich etwas ausgelöst wurde.


    Ich habe schon mehrfach jitsi Server aufgesetzt, teilweise recht große für eine Online-Messe mit 4.000 Besuchern und den Ausstellern Videochats zur Verfügung gestellt. Es gab knifflige Dinge, aber Lets Encrypt gehörte nicht dazu, denn alles, was ich mir dazu aufnotiert hatte war:


    Code
    apt-get update
    apt-get install certbot
    apt-get install python3-certbot-nginx
    certbot renew

    Hätte es da ein Problem gegeben, hätte ich wahrscheinlich mehr aufgeschrieben...


    CU, Peter

    Hay,


    ich hatte schon einmal in einem Paket ein loses Teil und ein weiteres Amazon-verpacktes Paket. Und bei 15 zeitgleich bestellten Bluerays 6 Einzellieferungen.


    So schaut Optimierung halt heute aus:

    Es sind mehrere Versandzentren mit Ware und ich habe das Gefühl, dass bestimmte Ware sogar im Lieferwagen gelagert wird (klingt komisch) oder der Lieferant zusätzlich ein Handlager hat. Außerdem bin ich fest überzeugt, manche Ware liegt schon vorverpackt da und da muss nur da Label drauf. Plus die "chaotische Lagerhaltung" (was sogar ein Fachbegriff ist, es soll keinen Mißstand beschreiben - chaotisch im Gegensatz zu geordnet, wo zB alle Grafikkarten aller Hersteller in einem Regal liegen). Dazu kommen noch die Händler, die über Amazon bezahlt werden, aber teilweise selbst liefern.


    Alle Einzelteile der Lieferung nun an einen Ort zusammenzuführen (sogar innerhalb eines Versandstandortes) kann aufwändiger sein, als alles einfach vom Regal zur nächsten Versandstelle und dann zum Bestimmungsort. Die Versandstellen sind dann auch noch "zusatzoptimiert", d.h. es kann durchaus sein, dass dieselbe Lieferung je nach Aufschlagzeitpunkt an der Versandstelle über DHL oder Amazon selbst geliefert wrid.


    Ich kann es mir im Kopf ganz gut vorstellen, weiß aber jetzt nicht, ob ich das wirklich verständlich beschrieben habe :P


    CU, Peter

    Hay,


    vielleicht auch mal ein paar ungewohnte Kürzel oder Fachbegriffe (des Clients) aufschreiben, wir können dazu Synonyme aufschreiben oder welche Werte dort eingetragen werden sollen. Und dann ist natürlich wichtig, von wo nach wo die Mails laufen müssen, also zB. "von meinem Webhosting 1000 auf Microsoft Outlook".


    CU, Peter

    Hay,

    Ich hatte natürlich vorher versucht mit tosa@rx.t-online.de Kontakt aufzunehmen, doch wurde ich da als "kleiner" Anfragender absolut abgespeist.

    Als ich vor rd. 1 Jahr den Server (und damit die IP) wechselte, hatte ich auch eine verbrannte IP geerbt. Konnte ich mit t-online innerhalb von 24h selbst erfolgreich klären, da habe ich überhaupt nicht daran gedacht, das über den Support zu machen (nach dem Motto: eigener Server, selbst verantwortlich). Webhosting wäre natürlich was anderes.


    Ich weiß allerdings nicht mehr, ob ich an tosa oder direkt an postmaster geschrieben habe - war über ein Web-Formular.



    Dann bekam ich 6 Stunden die Nachricht, dass die Reputation für meine IP resettet wird und so wars dann auch ein paar Stunden später erledigt.


    CU, Peter

    Hay,

    Da sieht man wieder, was geschrieben wurde und was dann verstanden wurde!


    Aber von euch, haben nur 50% versucht zu helfen. Andere müssen immer mit "liefere doch mehr Input" daherkommen... Obwohl sie selbst keine Ahnung haben

    Was geschrieben wurde: 50% versucht zu helfen... Andere = 100% - 50%, die versucht haben zu helfen... Obwohl sie selbst (also die restlichen 50%) keine Ahnung haben.


    CU, Peter

    Hay,


    Du hast halt den Vorteil, Du kannst einem System so lange rumfummel, bis es klappt und hast sofort alle Information, die Du benötigst, sobald Du sie benötigst.


    Alle anderen sehen erst nur mal in eine Glaskugel und passiv-aggressive Antworten verleiten nicht gerade dazu, jemanden zu helfen.


    ES wäre vermutlich der einfachste Weg gewesen, kurz einen Webhost mit dem CNAME anzulegen, sich das Lets Encrypt Zertifikat zu besorgen und auf das NAS rüberzukopieren, den Webhost wieder zu killen. Hat aber den Nachteil, dass man das alle drei Monate neu machen müsste. Alternativ wäre auch DNS challenge möglich, was schon im ersten Beitrag erwähnt wurde, aber ...


    Ich versteh nur Bahnhof


    ... egal. Gut, dass 50% keine Ahnung haben.


    CU, Peter

    Hay,

    Sind nach aktuellem Stand somit auch Domains betroffen?

    ich hoffe nicht. Aber wenn ich den Beitrag durchlese, vermute ich, nur Produkte mit echtem Verbrauch sind betroffen.
    Domainpreise hängen wohl von der Preisgestaltung der Registries ab. Wen da was passiert wurde es in der Vergangenheit ja schon durchgereicht.


    CU, Peter

    Hay,


    hach, ist natürlich schade, Du scheinst gerade alles wieder in den Ursprungszustand zurückgesetzt haben, auf den Webseiten kommt gerade gar nichts mehr, ich wollte noch etwas ausprobieren.


    Denn es mag sein, dass es ggf. eine Worpress-Lösung gibt - wenn die Grafiken in dem Mediaordner der .de-Domain liegen, kann es durchaus sein, dass die als .be-Domain einen 404 schmeißen. Aber ich kenne mich mit Wordpress nicht wirklich aus (und mag es auch nicht).


    Aber es gibt meiner Einschätzung auch noch einen Workaround, wenn dieselben Grafiken unter .de tatsächlich laufen. Dann könnte man mit einer .htaccess rewrite-rule auf die verlangten Dateitypen (oder die Ordner, wenn alle Grafiken - und nichts anderes - in einem Ordner stecken) die Domain beim Zugriff austauschen.


    Hinter dem Link liegt das zugrunde liegende Schema, die Regeln müssen aber etwas konkreter ausdefiniert werden, damit sie für einzelne Dateitypen gelten:

    https://wpscholar.com/blog/redirect-old-domain-to-new-domain-via-htaccess/


    Hier ist es etwas detaillierter:

    https://wp-qa.com/htaccess-rewrite-rule-for-all-images-in-a-folder-to-another-domain


    CU, Peter

    Hay,


    das sind ziemlich viele Dinge auf einmal und es ist etwas durcheinander.

    VSC SSH Remote:


    Scheint beim webhosting leider nicht zu funktionieren, habe es selbst gerade ausprobiert. Anscheinend ist die chroot-Umgebung zu limitiert und es können die entsprechenden libs nicht passend adressiert werden.

    [Auf meinem root-Server einwandfrei]


    Nimm: sftp tool - wenn ssh funktioniert, funktioniert auch das. Ist etwas umständlicher, erfüllt aber seinen Zweck besser, als händisch hochzuladen.

    https://www.webtexterei-tomusch.de/vs-code-sftp/

    (Bemerkung: beim sftp hat der Entwickler gewechselt, also nicht das deprecated tool installieren, sondern das aktive mit demselben Bildchen)


    Bei Wordpress Local development kann ich nicht wirklich helfen.


    Lokal muss auf Deinem PC ein vollständiger Webserver laufen - z.B. XAMPP (aber bitte, bitte diesen nicht public einsetzen, den hacke ich Dir in der default config in 2 Minuten). Idealerweise installierst Du wordpress auf diesem Webserver, wie auf einem echten Webserver - und zwar vom offizellen Download manuell. Das solltest Du auch auf dem webhost so machen.

    Anschließend brauchst Du so ein Tool wie "duplicator" (o.ä. gibt da einige) - das ist eigentlich sinniger, um Dein lokales Wordpress mit dem webhosting zu synchronisieren - es müssen ja nicht nur die Theme-Dateien und sonstigen Modifikation "nach oben", sondern auch die Datenbank. Wenn Du hier lokal entwickelst, brauchst Du eigentlich dann VSC remote nicht beim Einsatz von "duplicator". Geht übrigens auch in der Richtugn von live auf lokal. Eine simple Datenkopie reicht nicht aus.


    Zur Nebensache: Die Gruppe ist egal, wichtig sind die file permissions 644 bzw. directory permissions 755. In einem solchen Fall muss die Datei immer von außen erreichbar sein, da jeder (d.h. auch der Webserver) diese Verzeichnisse betreten kann und die Dateien lesen kann. Und zwar inkl. httpdocs alles darunter, es darf nicht ein Verzeichnis mit permission 700 dazwischen liegen, dann käme nämlich nur der Ersteller (und root) drauf. That's all I guess.

    CU, Peter