Beiträge von Andi22

    Netcup stehen auch nicht weniger Cores pro vServer zur Verfügung. Auch dass die mehr ausgelastet sind, kann Netcup bei dedizierten Kernen weitgehend egal sein. Daher vermute ich mal, das das nur als Begründung hergehalten hat, um die verkaufte Leistung zu reduzieren (= den Gewinn zu erhöhen).

    Dedizierte Kerne bedeuten hier nur, dass Du Deine Kerne zu 100% nutzen kannst, nicht dass pro Host-Server-Core nur ein Root-Server-Core verbucht wird. Wenn eine CPU z.B. 16 Kerne hat, laufen nicht nur 4 mal 4-Kerne VMs, sondern einige mehr.


    Um die günstigen Preise zu realisieren, muss Netcup überbuchen *

    Allerdings werden die Server überwacht, damit (zumindest statistisch) immer genug Ressourcen verfügbar sind.


    Wenn Dein CPU-Steal zu groß ist (Felix hat irgendwo im Forum mal einen Wert genannt), Du also nicht die volle CPU-Power Deiner virtuellen Kerne bekommst, kannst Du das dem Support melden, und die schieben Deine VM auf einen anderen Host.


    * Wenn Du Dir mal nur die Hardware-Preise anschaust, was z.B. so eine Xeon-CPU kostet, und dann, was wir hier pro Kern zahlen, dann wird Dir schnell klar, dass das gar nicht gehen kann. Nur weil die meisten meistens gar nicht 100% Ihrer CPU brauchen, ist so ein Angebot überhaupt möglich.

    und nun erkläre ich dem anderen Lehrer zum wiederholten mal, dass keiner von uns im Unternehmen Debian, sondern eher RHEL/CentOS oder SLES/openSUSE nutzt. Trotzdem werden wir daran ausgebildet.


    Habt Ihr in Deiner Klasse schon mal eine Umfrage gemacht, wie viele der vertretenen Firmen Debian, RHEL/CentOS und/oder SLES/openSUSE verwenden ?


    Würde mich interessieren, weil ich einigen Firmen (auch sehr großen) kenne, die auch Debian einsetzen.

    Ich würde Dir empfehlen für ein Raid1 2 unterschiedliche SSDs zu nehmen. Das verringert die Wahrscheinlichkeit, dass beide gleichzeitig kaputt gehen.

    Ich hab seit langem 2 Raid1 (Server und Workstation) mit SSDs von Samsung,Crucial und Sandisk am laufen, und bin sehr zufrieden.


    Und die SSDs halten länger als das ich gedacht hätte. Allerdings kaufe ich kein 2D-TLC oder QLC


    Bei Proxmox müsst Du evtl aufpassen, wenn Du ZFS verwendest. Das kann erst seit kurzem TRIM, und die von Proxmox verwendete Version ist sicher älter

    Das interessiert mich jetzt doch. Da war ich noch nie, habe aber überwiegend positive Stimmen gehört. Betrifft das nur die Server oder auch das Webhosting?

    Auch wenn die Pakete und angebotene Leistung mir nicht zusagt, kenne ich ebenfalls genügend zufriedene Kunden. Gibt ja noch andere Fische im Teich ??


    Also ich bin seit 15 Jahren Kunde bei genanntem Provider (ok, dauert noch 6 Wochen bis die Aussage wirklich stimmt :whistling: ) und gehöre damit offensichtlich auch zu den zufriedenen Kunden (Webhosting).


    Ernsthafte Probleme hatte ich zum Glück noch keine.

    Das Interface ist, sagen wir mal, gewöhnungsbedürftig, aber funktioniert, wenn man sich mal dran gewöhnt hat.


    Was mir da sehr gefällt ist, dass man einfach (beliebig viele ?) externe Domains anlegen kann.


    Außerdem parke ich dort einige Domains, weil man bei den Inklusive-Domains nicht nur .de sondern auch .com, .net, etc auswählen kann. Beim 9,95 Euro Paket sind das folglich 1 Euro pro Domain, und Webspace bekomme ich auch noch dazu ;)


    Aber Netcup hat auch viele Vorteile!!!


    Hab auch schon mindestens einen meiner Freunde dazu gebracht seinen Server zu Netcup umzuziehen, und das sogar ohne Gutschein ;(


    Also bucht kräftig Netcup Produkte, denn ich will, dass Netcup noch lange so tolle Angebote machen kann, wie in der Vergangenheit :love:


    Ich träume da z.B. von einem Zen2-Epyc-Root-Server. Wäre echt toll :)

    Was meinst Du mit "in das /mnt Verzeichnis gewechselt und die Datei /etc/ssh/sshd_config angepasst" ?

    Du solltest z.B. nano /mnt/etc/ssh/sshd_config verwenden.


    Alternativ kannst Du anstatt dem Rettungssystem auch die VNC-Konsole von Netcup verwenden und dann dort nano /etc/ssh/sshd_config verwenden


    Ich bin voll Deiner Meinung, und finde es sehr schade, dass der Benutzer hier scheinbar eingeschränkt wurde.

    Oder kann man jetzt swappiness auch auf negative Werte setzen um ein Verhalten wie bei Stretch zu erreichen X/ (Vorsicht, Ironie, ich weiß, dass man keine negativen Werte setzen kann.)


    Aber, wie immer gibt es halt unterschiedliche Meinungen.

    Bereits 2004 wurde das Thema heftig diskutiert, und Andrew Morton meinte

    Zitat

    Swapout is good. It frees up unused memory. I run my desktop machines at swappiness=100.

    Quelle: https://web.archive.org/web/20…/kerneltrap.org/node/3000


    Wäre schön gewesen, wenn man dem Benutzer/Admin die Möglichkeit gelassen hätte das selbst zu entscheiden, ob man lieber swappen oder cachen will.

    Wahrscheinlich verwendest Du eine ältere phpMyAdmin Version, z.B. die die bei Debian Stretch dabei ist, und eine aktuellere PHP Version, z.B. PHP 7.3

    Die sind aber nicht kompatibel, bzw es ist ein Bug in phpMyAdmin.


    Lösung wäre entweder nach einer phpMyAdmin Version zu schauen, die PHP 7.3 unterstützt, z.B. die aktuellste Version.

    oder phpMyAdmin mit einer älteren PHP Version, z.B. PHP 7.0, das Stretch mitliefert, zu verwenden,

    oder Mysql direkt über die CMD zu verwenden.


    Was für ein Netcup Produkt hast Du eigentlich ?

    Vielen Dank. KeepassXC hat aber kein Webdav oder? Also ich muss den Container auf dem PC haben? Bei Keepass2 ist eine direkte webdav Verbindung möglich.

    Hab meinen Post zu spät editiert. Du hast natürlich völlig recht. Hab zu wenig auf das WebDav geachtet.


    Ich synce meine Keepass-Datei (und andere Dateien) mit Sparkleshare. Aber das gibt es ja viele Möglichkeiten.


    Ich mag Sparkleshare, weil es Git verwendet, und ich mit Gitea meinen eigenen Git-Server hoste. Das ist mir lieber als WebDav

    Hallo, ich bin etwas verwirrt. :D

    Sollte ich Keepass 2 oder KeepassXC nutzen? Wichtig wäre mir ein Sync über Webdav.


    Momentan nutze ich 1Password.

    Da sowohl Keepass als auch KeepassXC das gleiche Dateiformat verwenden, kannst Du sogar abwechselnd mal das eine oder das andere verwenden.

    Ich nehme meist KeepassXC, aber das ist Geschmackssache .

    Unter Windows gibt es ja Portable Versionen, die man leicht ausprobieren kann.


    Für Sync ist wohl Keepass besser: https://keepass.info/help/v2/sync.html

    Wie ist das eigentlich mit Datenträgerverschlüsselung unter Linux, spezifisch Debian?

    Da muss man doch beim booten immer das Passwort für die Festplatte eingeben, richtig? Was ist wenn der Server mal abraucht, oder warum auch immer neu booten muss - muss man dementsprechend dann immer dabei sein und das Passwort eingeben? :/

    Entweder das, oder Du verwendest so etwas wie Mandos.


    https://wiki.recompile.se/wiki/Mandos


    Zitat

    Mandos is a system for allowing servers with encrypted root file systems to reboot unattended and/or remotely.


    Auf der Seite gibt es schöne Bilder die erklären, wie Mandos funktioniert, aber im Prinzip ist es ein Client-Server System, wo ein Server das Passwort zum entschlüsseln vorhält. Schau Dir einfach mal die Webseite an.


    Ist in Debian und Ubuntu enthalten.


    Eine Variante des Prinzips wäre es einen verschlüsselten LXC/LXD-Container zu verwenden, und sich das PW von einem eigenen Server (z.B. von einem Raspberry Pi daheim) zusenden zu lassen. Das geht mit ein paar Skripten recht einfach, ist aber wahrscheinlich nicht so sicher wie Mandos

    Bei mir haben sich auch gerade alle bis auf ein Plugin deaktiviert. Könnte kerzengrade durch die Decke gehen - wie fahrlässig muss ein Entwickler handeln, um sowas zu veröffentlichen?! O.o

    Als mein NoScript plötzlich deaktiviert war, dachte ich kurz darüber nach, ob mein System gehackt wurde. Da war ich kurz recht hektisch ;)

    Und das alles nur weil ein Admin vergessen hat ein Zertifikat zu erneuern ;(


    Wie Bensen auch schon schrieb hat Mozilla inzwischen einen Workaround:

    https://discourse.mozilla.org/…-fail-to-install/39047/14


    Aber Du hast vermutlich, wie ich auch, in den Einstellungen/Datenschutz die Funktion "Firefox das Installieren und Durchführen von Studien erlauben" deaktiviert.

    Wenn man die wieder aktiviert, werden die AddOns auch nach ein paar Minuten wieder aktiviert.

    Danach kann man die Funktion wieder abschalten.

    Hallo Thuulok,


    wie Paul schon geschrieben hat, kann es ein Risiko sein eine Datenbank direkt im Internet zugänglich zu machen.


    Du könntest statt dessen ein VPN,wie z.B.Tinc VPN verwenden. Das gibt es sowohl für Linux als auch für Windows, und ist einfach zu installieren.


    Oder den DB-Port per SSH Port forwarding tunneln. Damit wird ein Port von dem Server auf den eigenen Rechner getunnelt. Dann kann der DB-Client einfach 127.0.0.1:5432 verwenden, anstatt "Netcup-IP":5432 (127.0.0.1:5432 sofern man den gleichen Port verwendet, und lokal kein Postgre läuft. Sonst halt einen anderen nehmen.)

    Müsste unter Linux etwa so aussehen:

    ssh -L 127.0.0.1:5432:127.0.0.1:5432 "Netcup-IP-oder-Domain"

    Unter Windows hat putty ein GUI um die Daten einzutragen.

    Wie ist das eigentlich, wenn ich auf einem RS2000 regelmässig über längere Zeit die volle Power nutze, so dass die verfügbare CPU-Power praktisch zu 100% ausgelastet ist? Muss ich mir darüber im Sinne einer "Fair Use Policy" Gedanken machen oder ist das absolut ok?


    Der Gedanke ist mir gekommen, weil ich heute Vormittag auf all meinen Servern ein grösseres Softwarepaket neu kompilieren und installieren musste. Dabei hat mich die Performance beim RS1000 und RS2000 positiv überrascht, so dass ich mir überlegt habe auf einem Root-Server eine Build- und Test-Umgebung aufzubauen. Ich möchte aber "meine Nachbarn" nicht verärgern.

    Ich würde sagen, da musst Du Dir keine Gedanken machen. Genau dafür sind die RS ja da :)

    Und Netcup überwacht die Nutzung ja, und wird falls nötig durch Umverlagerung von VMs (auf andere Server) dafür sorgen, dass genügend CPU-Power vorhanden ist.

    Es gab hier im Forum schon Diskussionen zu dem Thema, und Felix hat da auch mal erklärt wie das im Groben funktioniert. Ich weiß leider nicht mehr in welchem Thread.

    Wobei ich nicht weiß was besser ist: unstable/testing nutzen oder ein externes Repo, kommt irgendwie fast auf das gleiche heraus, security patches mag der eine schneller liefern, vertrauenswürdiger finde ich Debian, ...


    Ich finde Debian auch vertrauenswürdiger. Wobei man aber dazu sagen muss, dass der Betreiber von packages.sury.org (Ondřej Surý) einer der Debian PHP Betreuer ist. Insofern sollten die Pakete fast genauso vertrauenswürdig sein.


    Ich habe jedenfalls vor PHP von dort zu installieren (derzeit noch nicht gemacht)

    Ich hab eher gegenteilige Erfahrungen gemacht - auf dem MacBook läuft alles problemlos und schnell. Auch bei GTA 5 wird das Ding nicht unangenehm warm.

    (MBP 2017) Mein Desktop PC heult aber sofort laut auf wenn ich in Chrome mehr als 3 Tabs nutze...

    Das erinnert mich an die guten alten Amiga vs Atari Zeiten.


    Amiga rulez :P


    Hi Mendikant,


    die Idee gefällt mir.


    Leider sehe ich aber auch einige Probleme mit dem Geschäftsmodell, weil der "Erbe" dann ja auch für die Pflege der Webseite verantwortlich wäre.

    Und das kann ganz schön tricky werden.


    Zum einen gibt es Sachen, die man nicht voraus sehen kann, wie z.B.die DSGVO.

    Oder stell Dir vor es gibt eine Urheberrechtsänderung, die Auswirkungen auf die verwendeten Bilder hat, ...


    Zum anderen gibt es Probleme die vorhersehbar sind, wie z.B. dass die verwendete Software nicht mehr supported wird.

    Also z.B. PHP5 ist jetzt EOL. Jetzt müsste die Webseite auf PHP7 migriert werden. Wie viel Aufwand das ist, ist Jahrzehnte im voraus schwer zu sagen.


    Besonders, wenn man zum Zeitpunkt des Vertragsabschluss ja noch gar nicht weiß, wie die Webseite zum Erbzeitpunkt aussieht.

    Das kann ja auch noch einige Jahre hin sein bis der Ernstfall eintritt. Kann man dem Betreffenden zumindest nur wünschen.


    Das könnte man etwas einschränken, indem man sagt keine selbst gemachten Webseiten und nur z.B. Wordpress.

    Aber selbst dann kann sich ja etwas gravierend ändern, schließlich reden wir von Jahrzehnten.


    Ich denke nicht, dass es unmöglich ist, aber der Aufwand, und damit die Kosten sollte man nicht unterschätzen.

    Nur eine Interessensfrage: Welche Linux-Distribution wird hier eingesetzt?

    Ich hätte jetzt ad-hoc nicht erwartet, dass es eine noch mit Security-Updates versorgte Linux-Distribution gibt, in der ein derart alter Apache+OpenSSL im Einsatz ist, welcher die Direktive SSLUseStapling nicht kennt.


    Das mit dem SSLUseStapling ist nur eine Vermutung von mir.

    In der Config steht etwas das mit "SSLStaplin" anfängt (steht in der ersten Shell-Skript Ausgabe im ersten Beitrag), und das hört sich für mich am ehesten nach SSL Stapling an.


    Ich tippe daher auch auf den Tippfehler. Aber wie @killerbees19 schon geschrieben hat, ohne mehr Informationen ist das schwer zu sagen.