Das längste Thema

  • Und wenn Intel sich Teile einer AMD GPU auf den Die packt, dann ist es immer noch nicht die Intel CPU, welche die Videos decodiert. Ich kann echt nicht nachvollziehen, wieso du das dan plötzlich zur Intel CPU dazu zählen würdest.

    Intel hat auch einen integrierten Beschleuniger bei einigen Modellen (im Grunde alle Serien außer der Xeon wenn ich nichts übersehe), die ist nur bei manchen nicht sonderlich ausgeprägt. Oder würdest du die iGPU der Intel Atoms oder Core i-3/5/7/9 auch als dezidierte Grafikkarte zählen?


    Die Intel CPU mit AMD Grafik waren tatsächlich zwei physikalisch getrennte und an verschiedenen Orten produzierte Dies, die nur auf einer Platine zusammen platziert wurden, quasi wie eine richtige dezidierte Grafik, nur platzsparender ;)


    Das Ding hat selbst einen eigenen Co-Prozessor für Fließkommaoperationen, der dediziert aktiviert werden muss.

    Zählt das auch als Extra Prozessor, wenn ja wie berechne ich mit dem Hauptprozessor den FLOPS Wert?

    Das ist ja so in etwa ein Teil der Ideologie hinter ARM: der Core wird gestellt, alles andere Regeln (herstellerspezifische) Erweiterungen.

  • Intel hat auch einen integrierten Beschleuniger bei einigen Modellen (im Grunde alle Serien außer der Xeon wenn ich nichts übersehe), die ist nur bei manchen nicht sonderlich ausgeprägt. Oder würdest du die iGPU der Intel Atoms oder Core i-3/5/7/9 auch als dezidierte Grafikkarte zählen?

    Du hast was übersehen, die Core-i7 mit LGA 2011 Sockel haben ebenfalls keine Graphik, es beschränkt sich nicht auf Xeons; und ja diese zählt man wie eine dedizierte Graphikkarte nur daß sie nichts kostet und man nichts separat verbinden braucht;


    es ist dann nur eine Frage, was das Chipset damit macht; das Intel P68 Chipset z.B. nutzt diese Graphik gar nicht, er hat keine Schnittstellen am Board an denen Du eine Monitor anschließen könntest, oder anders: dort brauchst Du extra eine Graphikkarte;


    und bei Notebooks mit IvyBridge kann on-the-fly zwischen einer separaten und dieser Graphikkarte hin- und hergeschaltet werden; im Desktop-Bereich gibt es das leider nicht;


    weil wir schon bei der Vielfalt sind, es gab/(gibt?) auch Systeme, die haben eine dezidierte Graphik OnBoard/(OnDie?), aber man konnte mit einer Erweiterungskarte auf Dual-Head hochrüsten;


    Das Ding hat selbst einen eigenen Co-Prozessor für Fließkommaoperationen, der dediziert aktiviert werden muss.

    Zählt das auch als Extra Prozessor, wenn ja wie berechne ich mit dem Hauptprozessor den FLOPS Wert?


    gar nicht, der FLOPS Wert ist natürlch nur f. Prozessoren mit entsprechenden Befehlssatz definiert, in Deinem Fall dann f. den dedizierten Coprozessor;

    beim i486 war dieser erstmals mit am CPU-Chip verfügbar; über den Pfusch der diesbezüglich mit dem 486SX veranstaltet wurde, will ich hier nichts sagen;

    Grüße / Greetings

    Walter H.


    RS, VPS, Webhosting - was man halt so braucht;)

  • Das Problem ist denke ich, dass man hier nur auf die einzelne CPU schaut, das ist aber gerade für so große Anwendungen wie sie Cloudflare hat recht irrelevant, denn die haben nicht nur einen Server, die haben sehr viele. Daher ist es auch irrelevant, ob jetzt die Intel CPU mehr Leistung bringt, denn wenn sie sagen wir mal doppelt so viel kostet wie die ARM, aber die ARM 3/4 der Rechenleistung der Intel CPU erreicht, lohnt sich die Investition auch.


    Du hast doch selbst das Argument mit der Leistungseffizienz gebracht. ARM CPU verbrauchen etwa halb so viel Watt pro Request. Daher spart man dadurch einiges an Stromkosten.


    Wir reden hier ja auch von Servern mit vielen Zugriffen, wo dann auch die vielen Cores etwas bringen.


    Natürlich würde ich mir keinen Desktoprechner mit ARM anschaffen, weil viele Anwendungen immer noch nicht für Multicore optimiert sind und daher die Leistungs eines einzelnen Cores durchaus wichtig ist.


    Es kommt halt auf den Anwendungsfall an. Eine CPU mit so vielen Cores wie die getestete ARM-CPU wird sich erst ab relativ vielen gleichzeitigen Zugriffen lohnen, oder wenn man Anwendungen hat, die für Multicores optimiert sind.


    Auch Microsoft will massiv auf ARM umsteigen: https://www.theregister.co.uk/…soft_arm_server_followup/


    Zitat

    Pic Microsoft today signaled more than half of its cloud data center capacity is set to be powered by 64-bit ARM servers.

    Zitat

    We feel ARM servers represent a real opportunity and some Microsoft cloud services already have future deployment plans on ARM servers ... We found that [ARM servers] provide the most value for our cloud services, specifically our internal cloud applications such as search and indexing, storage, databases, big data and machine learning. These workloads all benefit from high-throughput computing.

  • Ich hab mal ne ziemlich dämliche Frage, aber vielleicht hat hier jemand mehr Erfahrung oder einfach mehr Ideen.


    Ausgangslage: Ich habe ein Script (Wir 3x parallel ausgeführt, tut nichts zur Sache), das in recht kurzen Zeitabständen für jeweils etwa 50 URLs einen HTML-dump erstellt, REGEX liefert daraus Parameter ist aus. Ist Parameter X(neu) != X(alt), so wird eine weitere URL aufgerufen (ansonsten -> exit), ein weiterer Parameter herausgefiltert (diesmal aus ner json) und die entsprechend runtergeladen (Der Parameter ist ne URL zu ner Datei). Jetzt wird X(neu) als X(alt) abgespeichert.


    An sich ist das, finde ich, ein relativ übersichtliches Szenario. Jedoch kommt es nun von Zeit zu Zeit vor, dass das Script etwas verrückt spielt und nach Lust und Laune fortfährt, egal ob X(neu) != X(alt) oder eben nicht. Ein Muster ist hier nicht zu erkennen.


    An sich ist es nicht besonders schlimm, da die doppelten Dateien sehr schnell durch ein drittes Script gelöscht werden können. Nervig ist vielmehr der E-Mail Alert, den ich zwar abstellen kann, bis die 100 Notifications da sind (hiernach weigern sich netcups Mailserver ja), bin ich genug genervt und es ist nicht immer&überall möglich, die Scripte zu stoppen, die Mailzeile auszukommentieren und alles wieder zu starten.


    Hat hier jemand eine Idee, woran es liegen kann?

    Mein erster Gedanke: Rate-Limits, aber dann müsste eigentlich das Cooldown-Script anspringen und alles entsprechend verlangsamen, die Seiten existieren ebenso alle, auch hier gibt es eine Art Monitoring Script.



    EDIT: Hier z.B. die letzten Minuten. Gelb=Alles wie gehabt. Grün=Neuer Eintrag // Tatsächlich war in den letzten Minuten kein "echter" neuer Eintragputty_2018-07-09_21-06-24.png

  • Ich zwangsbeglücke euch noch mit den letzten Updates zu dieser Geschichte… ^^

    Noch nicht perfekt, da z.B. die Leasetime vom LTE-Stick einige Tage beträgt, aber dafür wird sich auch noch eine Lösung finden lassen.

    Aktuelle Lösung: IP weg, dann zur Sicherheit einmal rebooten. IP geändert, dann nur eth0 für 10 Sekunden offline nehmen und wieder aktivieren. Der angeschlossene (DHCP) Client bekommt die Änderung innerhalb von maximal zwei Minuten mit.


    Die Sache hat allerdings einen Haken: Offenbar hängt sich der Stick manchmal so auf, dass nur noch ein Ausstecken hilft. Zusätzlich resettet sich der Stick in solchen Fällen nach einigen Minuten ohne Signal o.ä., was blöd ist, weil die darin eingelegte SD-Karte als Extroot für LEDE dient. Die fetzt es somit mit raus.


    Positiv ist, dass die derzeitige Lösung eine Erkennung für die SIM-Karte (basierend auf der ICCID) hat und den APN sowie alle weiteren Details automatisch konfiguriert. Das muss man natürlich einmal konfigurieren, bevor eine unbekannte SIM-Karte eingesetzt wird.


    Ein weiteres nettes Detail habe ich mir vom Dovado abgeschaut: Zu Beginn startet die WAN-Verbindung ganz normal, damit der Router über NTP die aktuelle Uhrzeit bekommt. Erst danach wird in den Bridgemodus gewechselt. Sollte die Verbindung nicht erfolgreich aufgebaut werden können, rebootet sich das Ding nach ca. 20 Minuten.


    Die bisherigen Tests waren trotz diverser Rückschläge durchaus positiv, mal schauen wie stabil es in den nächsten Tagen läuft. Das Hauptscript, das die ganze Arbeit macht, ist schon stolze 6 KB groß. Die benötigte Zeit zwischen Netzteil Einstecken und Internet verfügbar am Ethernetport liegen bei ca. 1,5 bis 2 Minuten. Das ist mindestens doppelt so schnell, wie bei einem Dovado Tiny.

    "Wer nur noch Enten sieht, hat die Kontrolle über seine Server verloren." (Netzentenfund)

  • ARM CPU verbrauchen etwa halb so viel Watt pro Request.

    Watt pro Request ist nicht definiert; Dein Auto verbraucht auch Sprit (= Energie) und nicht Dinostärken (= Leistung);:D

    und nebenbei ist es ein Vergleich von Äpfeln mit Birnen, denn die Requests beziehen sich nicht auf die CPU, sondern ein paar Layer höher - HTTP-Requests;;)

    Natürlich würde ich mir keinen Desktoprechner mit ARM anschaffen, weil viele Anwendungen immer noch nicht für Multicore optimiert sind und daher die Leistungs eines einzelnen Cores durchaus wichtig ist.

    das spielt auch im Serverbereich eine Rolle, spätestens wenn Du Lizenzgebühren je Sockel und Core zu bezahlen hast;

    das war mal, daß man nur nach Sockel zu bezahlen hat; da hatte in diesem Segment auch AMD mit den 12-core Opterons die Nase vorne; mittlerweile zahlst zusätzlich auch je Core, und da rechnet sich dann die teureren Intel-CPUs; ARM gibt es in diesem Leistungs-Segment gar nicht; ;)


    zum Thema f. Multicore optimiert; wenn das OS so doof wie Windows ist - Win10 ist keine Ausnahme, dann veranstaltet es eine Gleichverteilung der CPU-Last, was dazu führt, daß Anwendungen quer durch die Cores "geschaukelt" werden, an Stelle ihr explizit einen Core zuzuweisen; damit werden Task-Switches sinnlosest durchgeführt und CPU-Zeit im wahrsten Sinn des Wortes verbraten;:D


    Grüße / Greetings

    Walter H.


    RS, VPS, Webhosting - was man halt so braucht;)

  • zum Thema f. Multicore optimiert; wenn das OS so doof wie Windows ist - Win10 ist keine Ausnahme, dann veranstaltet es eine Gleichverteilung der CPU-Last, was dazu führt, daß Anwendungen quer durch die Cores "geschaukelt" werden, an Stelle ihr explizit einen Core zuzuweisen; damit werden Task-Switches sinnlosest durchgeführt und CPU-Zeit im wahrsten Sinn des Wortes verbraten;:D

    Nichts mache ich lieber als freundliches Windows Bashing, aber lies mal Windows Internals 7:

    Code
    On a uniprocessor system, scheduling is relatively simple: The highest-priority thread that wants to run is always running. On a multiprocessor system, it is more complex. This is because Windows attempts to schedule threads on the most optimal processor for the thread, taking into account the thread’s preferred and previous processors as well as the configuration of the multiprocessor system.



    Auch in Linux ist das nicht anders. Genaugenommen ist es alles etwas komplizierter da abhängig von der Art des Multiprozessorsystems (Classic, Hyper-Threading, NUMA) sheduling domains gebildet werden innerhalb derer ein Thread wechseln kann ohne lokale Caches zu verlieren. Auch die Leute bei Microsoft sind nicht blöd und die Tatsache dass CPUs sehr schnelle Caches haben die ein Thread ausnutzen kann ist noch nichtmal mehr denen entgangen.

  • Watt pro Request ist nicht definiert; Dein Auto verbraucht auch Sprit (= Energie) und nicht Dinostärken (= Leistung);:D

    und nebenbei ist es ein Vergleich von Äpfeln mit Birnen, denn die Requests beziehen sich nicht auf die CPU, sondern ein paar Layer höher - HTTP-Requests;

    Doch ist es, wenn man pro Request genau die selbe Arbeit verrichten lässt, z. B. genau die selbe Datei abrufen lässt und bis auf die CPU die selbe Hardware verwendet. Dann sind es auch keine Äpfel mit Birnen. Das ist praxisnaher als irgendwelche BogoMips miteinander zu vergleichen... Und wenn Du den Benchmark gelesen hättest, wüsstest Du, dass sie ja noch andere Benchmarks durchgeführt haben.


    Du kannst außerdem ganz leicht die Requests pro kwh Ausrechnen, dann hast Du deine Energieeinheit. Beim Auto sind andere Einheiten üblich, um die Leistung zu vergleichen, tut hier auch nichts zur Sache.


    Zitat

    das spielt auch im Serverbereich eine Rolle, spätestens wenn Du Lizenzgebühren je Sockel und Core zu bezahlen hast;

    das war mal, daß man nur nach Sockel zu bezahlen hat; da hatte in diesem Segment auch AMD mit den 12-core Opterons die Nase vorne; mittlerweile zahlst zusätzlich auch je Core, und da rechnet sich dann die teureren Intel-CPUs; ARM gibt es in diesem Leistungs-Segment gar nicht;

    Wie ich schon sagte, es kommt auf den Anwendungsfall an, nur dürften wohl die meisten Leute, die Webanwendungen einsetzen, LInux verwenden und da spielt das in der Regel keine Rolle.


    PS: Arbeitest Du für Intel?

  • sagt mal, nutzt hier wer mailcow mit nem nginx reverse Proxy?


    Wie löst ihr dass mit den Zertifikaten für mailcow?


    Gibt es ne Möglichkeit letsencyrpt irgendwie über Port 80 zurchzuschleifen über den Proxy?


    Nachdem symlinks net funktionieren, nutze ich jetzt --post-hook um die Zertifikate zu kopieren und die Mail Container neu zu starten.


    Bzw. benötigt jede Domain ein Zertifikat? Für autodiscover.* autoconfig.*

    In der Regel übernimmt der acme Container das ja, ... Der ist aber hinter dem Proxy nicht erreichbar, bzw. In der configs eh deaktiviert.


    Dürften SRV Records nicht ausreichen um auf mx.domain.de zu verweisen?


    Wenn die Mails manuell unter Angabe der mx.domain.de eingerichtet werden, wäre es eh egal, oder?

    Meine Produkte: definitiv zu viele, RS, VPS, Domains, Webhosting, ...

  • Gibt es ne Möglichkeit letsencyrpt irgendwie über Port 80 zurchzuschleifen über den Proxy?

    Nein das geht nicht. NGINX terminiert die TCP Verbindung und baut anschließend eine neue auf. Ansonsten könnte man ja im Proxy Setup zum Beispiel keine Header setzen. Dir bleibt nichts anderes über, als die Zertifikate im Reverse Proxy neu zu erstellen.


    Ich habe in meiner Umgebung eine eigene VM welche sich nur um Lets Encrypt kümmert. Die erstellt mit acme.sh und dem DNS Update Plugin die Zertifikate und verteilt diese anschließend weiter an die eigentlichen Systeme. Ist mit ein bisschen Shell Scripting selbst gebaut und funktioniert ohne Probleme.

  • Nein das geht nicht. NGINX terminiert die TCP Verbindung und baut anschließend eine neue auf. Ansonsten könnte man ja im Proxy Setup zum Beispiel keine Header setzen. Dir bleibt nichts anderes über, als die Zertifikate im Reverse Proxy neu zu erstellen.


    Ich habe in meiner Umgebung eine eigene VM welche sich nur um Lets Encrypt kümmert. Die erstellt mit acme.sh und dem DNS Update Plugin die Zertifikate und verteilt diese anschließend weiter an die eigentlichen Systeme. Ist mit ein bisschen Shell Scripting selbst gebaut und funktioniert ohne Probleme.

    Danke für die schnelle Rückmeldung. Wie verhält sich das mit den Subdomains? Benötige ich die ganzen autoconfig. * etc. Für jede Domain, oder ist nicht ?


    Auf der Maschine läuft nicht viel, eigentlich benötige ich nur 3 Subdomains für die Mails, 1 für Nextcloud und eine für Bitwarden, also alles in allem 5.


    Glaub dafür benötige ich keine Wildcards.


    Würde das sonst mit dem hook lösen

    Meine Produkte: definitiv zu viele, RS, VPS, Domains, Webhosting, ...

  • Bin gerade über ein neues Problem gestolpert.


    Ich beziehe die Zertifikate nun ganz normal über certbot und kopiere sie bei nem renew und starte anschließend Postfix und dovecot Container neu.


    Hab jetzt manuell die TLSA Records gesetzt.


    Müssen diese bei jedem renew neu gesetzt werden? Oder bleibt der Teil bei nem renew identisch?


    Sonst, wer nen Vorschlag wie ich das realisieren kann?

    Meine Produkte: definitiv zu viele, RS, VPS, Domains, Webhosting, ...