Beiträge von Cictani

    Scheint normales verhalten zu sein hier ein Zitat aus der Doku:


    Zitat

    Further note that httpd must look for .htaccess files in all higher-level directories, in order to have a full complement of directives that it must apply. (See section on how directives are applied.) Thus, if a file is requested out of a directory /www/htdocs/example, httpd must look for the following files:

    Code
    /.htaccess
    /www/.htaccess
    /www/htdocs/.htaccess
    /www/htdocs/example/.htaccess

    Sind nicht alles personenbezogene Daten, mit denen man eine Person identifizieren könnte. Das wäre ja mit der Session ID möglich, ebenso wie mit der IP (und die ist ja personenbezogen). Wobei man liest dazu ja eh je nach Webseite ständig etwas anderes...

    Manchmal will man ja auch nicht jedes mal seinen Usernamen und Passwort erneut eingeben, da ist es hilfreich, dass das Session Cookie das Schließen des Tabs überdauert.

    Irgendwie müssen sie sich halt auch finanzieren. Aber Du hast ja die freie Wahl, entweder Du schaust Dir die Werbung an, oder Du siehst halt gar nichts vom Content.

    Also ich habe standardmäßig den Werbeblocker aus und aktiviere den nur bei Seiten, die wirklich mit Werbung zugemüllt sind.


    Wäre ich von der Finanzierung durch Werbung abhängig würde ich auch alle Blocken, die meine Werbung blocken ;)

    Heute dachte ich mir mal: "Schaust doch mal auf den Seiten der EU nach, wie die das mit den Cookies machen, die müssten das doch schließlich gut umgesetzt haben".


    Also mal die Seite des EU Parlaments geöffnet.


    Da kommt gleich ein schöner Cookie Hinweis:


    eu cookie hinweis.JPG


    Doch enttäuscht war ich als ich kontrolliert habe, welche Cookies denn noch vor der Zustimmung bzw. Ablehnung bereits gesetzt waren. 9 Cookies zeigte mir Chrome an, darunter auch mehrere von xiti.com, scheint wohl eine Google Analytics Alternative zu sein. Auch ein Löschen und Neu laden (da ich dachte, dass ich evtl. schon einmal auf der Seite war), brachte keine Änderung.


    Ist denn nicht der Sinn und Zweck einer Solchen Meldung, bei der ich auch noch Ablehnen kann, erst einmal die Rückmeldung des Users abzuwarten und dann erst Cookies zu setzten?


    Doch eine Chance habe ich der Seite noch gegeben. Evtl. verschwinden ja die ganzen Cookies, wenn ich auf Ablehnen drücke, immerhin fragt mich ja der Hinweis so schön, ob ich zustimme. Doch leider wurde kein einziges Cookie nach Drücken auf "Ablehnen" gelöscht. Vielmehr kam ein weiteres Cookie hinzu, in dem der Wert für meine Ablehnung gespeichert ist.


    Ich frage mich jetzt, was mir diese Meldung bringt, wenn sie doch keinerlei Auswirkungen auf das Speichern von Cookies zu haben scheint und bereits vor meiner Aktion Cookies gesetzt werden.

    Könnte man euch auch ärgern, wenn man den Verwendungszweck mittels eures GPG Keys verschlüsselt? Der Bank geht ja die Referenz nichts an, sicher ist sicher...

    Der Sicherungsserver aber noch weniger, daß er bereits komprimitierte Daten sichert ...:D

    hältst Du mehrere Generationen vorrätig?


    ich würde meinen, automatisiert kann man derartiges gar nicht erkennen;

    Muss er ja auch nicht, Du kannst ja dann die Daten von Datum xyz wiederherstellen, nachdem Du sichergstellt hast, Dass dein Server zu dem Zeitpunkt noch nicht kompromittiert war. Wenn Du hingegen umgedreht vom Server direkt Zugriff auf die Datenbankmedien erlaubst, kann ein Angreifer ja alle Backups manipulieren.


    Daher ist ein externer Backupserver, der sich zu den Servern verbindet, die gesichert werden sollen, deutlich sicherer.

    Doch, das führt zum Datenverlust. Das ist mir mehr als einmal schon passiert.


    Was stellst du dir unter Raidcontroller defekt vor? Defekt heißt hier oft, das falsche Daten geschrieben werden und die Platten an einem anderem System nicht erkannt werden.

    Ich kenne mich mit Raid zu wenig auf, danke für deine Erläuterung.

    das war nicht die Frage; die Frage war, ob netcup etwas unternimmt, um im Desasterfall - z.B. Raid-Controller defekt - beim Storage Space die Daten wiederherstellen zu können ...


    Aber das führt doch in der Regel nicht zum Datenverlust, die Daten sind ja auf den Festplatten und solange die nicht defekt sind, bzw. zu viele davon, kann man die Daten wiederherstellen. Wenn die Daten futsch wären, nur weil der Raidcontroller den Geist aufgibt, wäre doch Raid ziemlich sinnfrei, denn dann hätte ich zwar die Gefahr des Datenverlusts durch den Ausfall einer einzelnen Festplatte gebannt, aber es bestände ja immer noch die Möglichkeit, dass der Raid Controller ausfällt und so meine Daten ins Nirvana schickt. Kann mir ehrlich gesagt nicht vorstellen, dass das bei neuen Raid Controllern wirklich der Fall ist.


    Wenn Dir aber die Ausfallsicherheit so wichtig ist, wäre ein Backupserver bei einem anderen Anbieter (am besten mit möglichst weiter räumlicher Trennung) wohl das Beste.

    Wenn ich mich einmischen darf, die Antwort lautet garnicht. Nicht desto trotz ist es völlig hinfällig Backup ist eine Thematik in der so viele Faktoren einfliesen das es beinahe für jedes Objekt einzeln betrachtet werden muss. Du musst erstmal Wissen was möchtest du sichern, welche Software möchte ich nutzen, wohin möchte ich es sichern, wie muss ich es dahin sichern und und und... Zu mal NFS ansich für Backup absolut ungeeignet ist wenn du es nicht zwangsweise mit sync Flag mountest. Machst du es nicht kannst du Backups wie xtrabackup direkt in die Tonne treten. Nur willst du sowas wie xtrabackup nicht in die Tonne treten...

    Hat aber wenig mit der Frage zu tun, ob ich jetzt den nfs Storage von netcup buche, oder mir eben den exra Storage Server hole. Natürlich kannst Du auch genauso ohne sync mounten. Wenn Du es nur zum Backup einhängst und anschließend wieder aushängst, wird es automatisch synchronisiert.

    Wenn ich keine mysql-Datenbank habe, kann ich xtrabackup sehr wohl in die Tonne treten, zumal es selbst für mysql auch andere Möglichkeiten gibt. Z. B. die Datenbank replizieren, dann den Slave herunterfahren und den mit mysqldump sicher, dann den Slave wieder hochfahren, dazu braucht man das tool nicht. Hat auch den Vorteil, dass ich den Master nicht herunterfahren brauche und so keine downtime währen des Backups habe.

    Erkläre mir doch dann mal, wie Du die Backups machen würdest, wenn Du nur den Storge Space hast, den Du nur über nfs einbinden kannst. Wie führst Du da regelmäßig automatisiert Backups aus?

    Ein eigener Backupserver erhöht auch die Sicherheit.


    Wenn der Webserver einmal kompromittiert sein sollte, kann der Angreifer beim zusätzlichen Storagespace, der über NFS eingebunden ist, auch gleich alle Backup Dateien manipulieren.


    Hat man aber einen eigenen Backupserver, verbindet der sich zum Webserver und holt sich die Daten von dort. Auf dem Webserver selbst sind keine Daten nötigt, die den Zugriff auf das Backupsystem erlauben. Daher kann ein Angreifer dann die Backups nicht manipulieren oder löschen..

    Watt pro Request ist nicht definiert; Dein Auto verbraucht auch Sprit (= Energie) und nicht Dinostärken (= Leistung);:D

    und nebenbei ist es ein Vergleich von Äpfeln mit Birnen, denn die Requests beziehen sich nicht auf die CPU, sondern ein paar Layer höher - HTTP-Requests;

    Doch ist es, wenn man pro Request genau die selbe Arbeit verrichten lässt, z. B. genau die selbe Datei abrufen lässt und bis auf die CPU die selbe Hardware verwendet. Dann sind es auch keine Äpfel mit Birnen. Das ist praxisnaher als irgendwelche BogoMips miteinander zu vergleichen... Und wenn Du den Benchmark gelesen hättest, wüsstest Du, dass sie ja noch andere Benchmarks durchgeführt haben.


    Du kannst außerdem ganz leicht die Requests pro kwh Ausrechnen, dann hast Du deine Energieeinheit. Beim Auto sind andere Einheiten üblich, um die Leistung zu vergleichen, tut hier auch nichts zur Sache.


    Zitat

    das spielt auch im Serverbereich eine Rolle, spätestens wenn Du Lizenzgebühren je Sockel und Core zu bezahlen hast;

    das war mal, daß man nur nach Sockel zu bezahlen hat; da hatte in diesem Segment auch AMD mit den 12-core Opterons die Nase vorne; mittlerweile zahlst zusätzlich auch je Core, und da rechnet sich dann die teureren Intel-CPUs; ARM gibt es in diesem Leistungs-Segment gar nicht;

    Wie ich schon sagte, es kommt auf den Anwendungsfall an, nur dürften wohl die meisten Leute, die Webanwendungen einsetzen, LInux verwenden und da spielt das in der Regel keine Rolle.


    PS: Arbeitest Du für Intel?

    Das Problem ist denke ich, dass man hier nur auf die einzelne CPU schaut, das ist aber gerade für so große Anwendungen wie sie Cloudflare hat recht irrelevant, denn die haben nicht nur einen Server, die haben sehr viele. Daher ist es auch irrelevant, ob jetzt die Intel CPU mehr Leistung bringt, denn wenn sie sagen wir mal doppelt so viel kostet wie die ARM, aber die ARM 3/4 der Rechenleistung der Intel CPU erreicht, lohnt sich die Investition auch.


    Du hast doch selbst das Argument mit der Leistungseffizienz gebracht. ARM CPU verbrauchen etwa halb so viel Watt pro Request. Daher spart man dadurch einiges an Stromkosten.


    Wir reden hier ja auch von Servern mit vielen Zugriffen, wo dann auch die vielen Cores etwas bringen.


    Natürlich würde ich mir keinen Desktoprechner mit ARM anschaffen, weil viele Anwendungen immer noch nicht für Multicore optimiert sind und daher die Leistungs eines einzelnen Cores durchaus wichtig ist.


    Es kommt halt auf den Anwendungsfall an. Eine CPU mit so vielen Cores wie die getestete ARM-CPU wird sich erst ab relativ vielen gleichzeitigen Zugriffen lohnen, oder wenn man Anwendungen hat, die für Multicores optimiert sind.


    Auch Microsoft will massiv auf ARM umsteigen: https://www.theregister.co.uk/…soft_arm_server_followup/


    Zitat

    Pic Microsoft today signaled more than half of its cloud data center capacity is set to be powered by 64-bit ARM servers.

    Zitat

    We feel ARM servers represent a real opportunity and some Microsoft cloud services already have future deployment plans on ARM servers ... We found that [ARM servers] provide the most value for our cloud services, specifically our internal cloud applications such as search and indexing, storage, databases, big data and machine learning. These workloads all benefit from high-throughput computing.