Posts by tab

    Ich wusste dass irgendwann der Tag kommt wo wir (Menschen) es bereuen uns so auf den ganzen Smart Gedöns Kram zu verlassen

    Tja, bisher waren solche Szenarien eher in Science Fiction Büchern/Filmen zu finden. Ingenieure und meist auch Software-Entwickler sind im tiefsten Herzen halt doch oft Spielkinder. Warum macht man's? Weil man's kann!

    Vielleicht sollte in das neue Wiki ein Artikel aufgenommen werden, der erklärt, was das Internet ist.


    Also: Das Internet besteht aus mehreren Komponenten, Facebook, Instagram, Youtube, Telegram, Twitter, WhatsApp und Netflix. Erfunden wurde es im Jahr 2003 von M.Zuckerberg, ...

    joergmschulz Facebook und angehängtes Zeug a la WhatsApp und Co. gelten nicht als kritisch;

    ich würde sogar meinen, wenn der Laden in die Luft fällt, hat das bis auf gröbere Staubwolken keine Auswirkung;:D

    Sagen wir mal so: Ich würde nichts davon vermissen, die Welt wäre ein besserer Platz und der eine oder andere Mensch würde ohne Facebook vielleicht noch leben. Das zugrunde liegende Geschäftsmodell finde ich einfach nur skrupellos und widerlich. Insofern nutze ich diese Dienste nicht und habe das auch erst gestern Abend aus (halbwegs) seriösen Nachrichtenquellen mitbekommen.


    Immerhin, die vielen Fake-Profil Betreiber, die im Auftrag ihrer Regierungen recht erfolgreich versuchen in diesen Plattformen Stimmung zu machen, müssten auf diesen Nebenverdienst verzichten, was natürlich sehr bedauerlich wäre.

    Mir persönlich sind mehrere Dinge aufgefallen. Zum ersten war pünktlich zum Ablauf des Zertifikats eine Synchronisation meiner Nextclouds mit Hilfe des Nextcloud Windows-Clients von meinem Windows 10 nicht mehr möglich. Das betraf alle drei Instanzen. Eine auf meinem Debian 10 Webserver, zwei bei einem netcup Mitbewerber auf unterschiedlichen Servern. Da gab es mittlerweile ein Update des Clients, wobei ich nicht weiss, ob der das Problem gefixed hätte, weil ich es zu dem Zeitpunkt bereits windowsseitig behoben hatte. Zum zweiten bekam ich am Samstag einen Anruf, weil ein Kunde seine IMAP-Mails bzw Mailanhänge nicht mehr mit seinem geliebten Windows Live Mail runterladen konnte, was mir ja gaaanz herzlich leid tut ;). Ich habe ihm empfohlen, sein Outlook stattdessen zu benutzen, auch wenn es nur ein ziemlich armseliger Ersatz ist, z.B. beim Darstellen von HTML-Mails.


    Und natürlich hört man in diversen Foren von dadurch verursachten Problemen.

    Das Internet ist jetzt nach dem Ablauf des DST_ROOT_CA_X3 tatsächlich einigermassen kaputt. Ich bereite schon mal das Einspielen des Backups vor.

    Habe es gerade mal mit zwei Subdomains ausprobiert. Die erste (sub1.meinedomain.de) existiert schon lange, wurde aber nie wirklich benutzt. Es war also nur die von Plesk erzeugte index.html und die favicon.ico drin. Ich habe dann zum Testen zwei weitere Dateien in das Verzeichnis kopiert und danach eine zweite Subdomain (sub2.meinedomain.de) angelegt mit dem selben "Dokumentstamm" wie die erste Subdomain. Dann habe ich die erste, ältere Subdomain sub1 in Plesk gelöscht. Danach war das Verzeichnis (Dokumentstamm) immer noch vorhanden und es waren immer noch alle vier zuvor vorhandenen Dateien in dem Verzeichnis enthalten. Danach habe ich die neue Subdomain sub2 auch gelöscht. Danach war dann tatsächlich das Dokumentstamm-Verzeichnis inklusive aller Dateien weg. Datenbank war keine zugewiesen, das wäre also noch zu testen. Ansonsten sieht es für mich so aus, als ob nur gelöscht wird, wenn keine andere Subdomain mehr den selben Dokumentstamm hat. Das muss ich aber auch noch intensiver testen, z.B. auch im Zusammenspiel mit dem Wordpress-Toolkit. Bei den Datenbanken schätze ich es aber kritischer ein, das muss ich noch ausprobieren. Denn die sind ja maximal einer Subdomain zugeordnet. Wenn die dann gelöscht wird, dann könnte die Datenbank eventuell auch gelöscht werden. Obwohl ich mich dunkel erinnere, das mal gemacht zu haben und die Datenbank danach halt einfach nicht mehr zugeordnet war, aber noch existiert hat.


    Aber heute eher nicht mehr, nächste Woche ist auch noch ein Tag ;)

    Ja, Googles Algorithmen sind teilweise recht intelligent geworden. Man sieht auch deutlich, dass z.B. Bing m.E. wesentlich weniger intelligent auswertet. Da ist immer noch viel mit Suchbegriffen in der URL zu machen, was Google nach meinen letzten Erfahrungen kaum noch beeindruckt. Gesehen habe ich das an einer relativ neuen Plattform für Rechtsanwälte. Da werden weitgehend identische Websites erstellt, die praktisch nur aus einer Reihe von Textbausteinen bestehe, bei denen an mehr oder weniger passenden Stellen Ort und Rechtsgebiet eingesetzt werden, die beide auch in der URL vorkommen. Bei Bing und somit auch DuckDuckGo ranken diese Seiten ziemlich gut, bei Google so gut wie gar nicht. Da ranken die eigenen Seiten der Anwälte meist viel besser. Da erkennt Google offenbar die Textbausteine bzw die große Ähnlichkeit der Webseiten und "bestraft" diese Strategie dann ziemlich stark. Dass die dann aber mittels Google-Ads zumindest teilweise als "Anzeige" angezeigt werden, bis halt das Budget aufgebraucht ist, da hat Google freilich nichts dagegen. ;)

    Wo liegt das Problem? Die Warnhinweise sind etwas theatralisch mit der Bestätigung durch OK, aber sie bedeuten im Endeffekt, dass beim Wechsel vom Typ "Website-Hosting" auf den Typ "Weiterleitung" das Verzeichnis gelöscht wird, auf das die Domain vor der Umstellung verwiesen hat. Das würde also nur dann etwas Wichtiges löschen, wenn die Domain zuvor auf das Verzeichnis mit der Multi-Domain Installation verwiesen hat und dann in eine Weiterleitung umgewandelt wird. Und auch hier gehe ich davon aus, dass solange eine Domain auf das Verzeichnis verweist dieses nicht gelöscht wird. Wäre aber mal zu verifizieren um ganz sicher zu sein. Das Standard-Verzeichnis /httpdocs wird wohl auch nicht gelöscht werden, solange die System-Subdomain nicht auf ein anderes Verzeichnis verweist oder in eine Weiterleitung umgewandelt wird (sofern das überhaupt geht). Insofern kannst du für alle deine Domains unbedenklich das Verzeichnis der Multi-Domain Installation angeben, weil sie ja wahrscheinlich zuvor auf das Standardverzeichnis verwiesen haben und nicht auf das Verzeichnis mit deiner Installation. Sonst müsstest du ja auch gar nichts ändern.

    Klar, Server die man nicht anlegen kann, sind logischerweise immer günstiger! :D


    Hilft uns Serversammlern aber erfahrungsgemäß auch nicht weiter. ;(


    (SCNR)

    Ist doch einfach, immer wenn die Leistung der vorhandenen Server nicht mehr zu reichen droht, kauft man halt einen dazu. Oder auch zwei oder drei. Ein Vorrat kann auch nicht schaden :D, damit man auf der sicheren Seite ist, wenn die Prozessoren knapp werden und die Preise steigen ^^. Dann kann man sich einreden "siehst du, war also doch gut, dass du vor 5 Jahren den Aktionsserver gekauft hast". Heute würde er zwei Euro pro Monat mehr kosten!

    Ich zahle lieber 10€/Monat als 10€/Minute :D;(. Minutengenau? Ist das der Einstieg in den Ultrakurzzeit Server-Handel? =O Gegen eine Erstellung von Servern per API habe ich freilich nichts einzuwenden. Ist natürlich auch immer eine Frage wofür und wie man die Server nutzt. Wenn man so einen Server im Schnitt ein paar Stunden braucht, kann man notfalls mal ne knappe Stunde zuviel zahlen und ist immer noch billiger dran als mit minutengenauer Abrechnung bei manchem Mitbewerber.

    Die IPv4 wird geshared mit allen Kunden auf dem selben Server. Die IPv6 ist deinem Webhosting-Paket zugewiesen, wird also nur von dir benutzt. Du gibst ja beim FTP-Login einen Benutzernamen an, damit sind deine Berechtigungen festgelegt, so dass du nur deine Dateien bearbeiten kannst. Andere Kunden können sich mit der selben IPv4 anmelden, haben aber einen anderen Benutzernamen.