Beiträge von SMARTeXPLORATE

    Die neue Oberfläche ist schick geworden. Das CCP und SCP korrespondieren von der Optik nun miteinander.


    Wenn ich darf, hätte ich gerne einen bis zwei Wünsche frei


    1. Die Schriftgrößen und Grafiken sollten in beiden Oberflächen übereinstimmen

    2. In beiden Oberflächen werden Server als vXXXXXXXXXXXXX angezeigt. Ab fünf Servern kann ich mir nicht mehr merken, was ich genau auf dem Server am laufen habe. Daher arbeite ich mit einen Alias. Der Alias wird im SCP nicht in der DropDown Liste angezeigt. Es wäre ein kuuhles Fietscher, wenn ich das einstellen kann bzw. dieses automatisch statt bzw. gemeinsam mit dem Real-Namen des Servers angezeigt wird.

    3. Siehe 2., das gleiche Fietscher zur besseren Benutzerführung in der Liste der Produkte insbesondere der Server. Bei Zusatzfunktionen wie eine interen VLAN würde ich mir wünschen, die Zuordnung z.B. zum Server direkt sehen zu können.


    Ansonsten, gelungene Umsetzung für die Verwaltung der Produkte.

    Hier noch einige Tipps zur Abkürzung zum Thema Containerization


    Kubernetes Kurssus https://www.udemy.com/learn-kubernetes/learn/v4/overview

    Docker Kursus https://www.udemy.com/learn-docker/learn/v4/overview

    Ansible Kursus https://www.udemy.com/learn-ansible/learn/v4/overview


    Diese Kurse und den Trainer kann ich wärmstens ans Herz legen. Man kann natürlich auch den harten und unbequemen Weg über die Tutorials in verschiedener Qualität nehmen.

    Ich werde bei Gelegeheit einen Teil der Dokumentationen - wenn diese fertig ist - hier als Anleitung veröffentlichen. Es gibt viene Anleitung im Internet, allerdings eben mit unterschiedlichen Inhalten und damit etwas zerstreut. Vielleicht steigt ja NetCup dann noch ins Cloud Cluster Kubernetes Business ein.

    Guten Morgen ohne Sorgen,


    Danke mal an Paul. Dem ist nichts hinzu zu fügen. Ich betreibe mit Rancher drei Cluster, die untereinander in Beziehung stehen.


    Für das "Üben", also die Entwicklung Deiner Artefsakte in einem K8s Cluster kannst Du minikube verwenden. Eine sehr gute Anleitung findeste Du hier für Ubuntu 18.04 LTS

    https://computingforgeeks.com/…minikube-on-ubuntu-18-04/


    Ich habe auch kubespray evaluiert. Das funktioniert auch, doch ist es etwas komplexer und damit aufwendiger zu verstehen.


    Wichtig ist ansible gut zu kennen, da es Dich bei der Installation und der Pflege Deines Clusters unterstützen kann. Gerade, wenn es darum geht, die Nodes einheitlich zu installieren. Für die Nodes (Master + Worker) des Clusters an sich habe ich NetCup VPS verwendet. Die sind relativ preisgünstig und brauchst Du einige Nodes nicht und kannst Du auf die Verfügbarkeit verzichten, dann sind diese ausreichend.


    Für meinen Anwendung brauche ich einen hochverfügbaren Storage Cluster, den ich mit Ceph implementiert haben. Dieser rennt jetzt seit 10 Tagen stabil und auch die Verfügbarkeit rennt ohne Probleme durch. Dieser wird dann als Persistent Storage in den Kubernetes Cluster eingebunden. Irgendwohin willst Du auch Deine Daten schreiben und diese dann bei einer Veränderung im Kubernetes Cluster auch wiederfinden. Und die Daten sollen eben auch nicht verloren gehen. Da ist der NetCup Storage Server eine gute Wahl. Ich habe davon drei, sodass es eine gute Auslastung ist. Verbunden ist der Storage und K8s Cluster durch ein VLAN von NetCup. Das rennt soweit auch recht gut.


    Das notwendig Netzwerk kannst Du mit Tinc VPN bauen. Es wird auf das externe Netwerk-Adapter des NetCup Servers gelegt. Dieses Netzwerk dient dann dazu, den K8s Cluster zu administrieren, auch der Datenverkehr kann darüber rennen.

    Priviet geekmonkey!


    Ich bin von Docker umgestiegen, wenn ich dass so formulieren darf. Ich habe aufgrund einer etwas komplexeren Infrastruktur mich für Kubernetes entscheiden. Somit kann meine Infrastruktur wachsen und ich habe den benannten Proxy mit an Bord. Das ist, finde ich sehr vorteilhaft. Kubernetes ist nicht sehr viel komplexer als ein einzelner Docker. Es bietet halt einige sehr wesentliche Vorteile. Damit das ganze dann in der Installation komfortabler wird, nutze ich kubespray. Dort kann ich alle nodes und die für mich wichtigen Funktionen quasi auswählen. Als Management-Console verwende ich dann rancher mit dem ich den bestehend Cluster mit allen Configuationen verwalten kann. rancher bietet auch ein eigenes Deployment auch zu anderen Providern - sorry NetCup, ich liebe Euch - an. Ceph habe ich als Storage Cluster für mich gewählt.


    Gute Nacht!

    Die oben gestellt Frage hat sich mittlerweile beantwortet bzw. das Problem - das keines war - habe ich lösen können.


    Ich habe nun einen Ceph-Cluster mit insgesamt drei OSDs - basiereden auf drei S 8000 G7 - am Start. Wie ich zu einer optimalen und weitgehend robusten Lösung gekommen bin, werde ich dokumentieren und gerne den Link dazu hier veröffentlichen. Zudem werden die OSDs durch drei Monitor MONs und entsprchenden Managern MGR begleitet.


    Die nächsten Schritte werden sein, diesen Ceph-Cluster für einen Kubernetes Cluster nutzbar zu machen und dort hinein entsprechenden Container mit Anwendungen sowie flexiblen persistentem Storage aufzusetzen.


    Happy Projects, einstweile!

    Ganz andere Frage bzgl. ceph. Ceph verwendet das Kommando ceph. Ist auch sinnvoll. ;) Dazu kann das Kommando auf allen für den Cluster definierten Rechern ausgeführt werden, so die Idee. Doch bis auf den Rechner, der als Monitor mon definiert ist, kann das Kommando nicht arbeit. Als Beispiel sei angeführt:


    ceph -h (Anzeige der Hilfe)


    wird mit einem satten "Cluster connection interrupted or timed out" abgebrochen. So natürlich auch bei allen anderen ceph Kommando-Varianten, insbesondere beim Erzeugen von OSDs.


    Frage ist, ob jemand eine Idee hat, was das sein kann? Verbindung zum initialen Monitor? Etc.? Netzwerk rennt und die Maschinen sehen sich über das VLAN untereinander.


    Best!

    Hallo Timo,

    ich habe die entsprechende Doku gefunden. In etwa so


    Code
    ceph-volume lvm prepare --filestore --data volume_group/lv_name --journal /dev/sdc1

    Gruß und eine gute Nacht da draussen!

    Partitionier dir die Platte sda halt in sda1 (System), sda2 (Ceph-Journal) und sda3 (Ceph-Data).

    Moinsen Timo,


    Danke nochmals für den Server. Ich komme erst die Tage dazu den Ceph Cluster zu bauen. Ohne, dass ich lange suchen muss, wie bekommt Cheph und ceph-deploy mit, welche Partitionen dann zu nutzen sind? Also in meinem Fall wären dass dann /dev/sda4 (ceph-journal) und /dev/sda5 (ceph-data)?


    Danke für Deine Antwort vorweg und schönes Wochenende.


    Mit den besten Grüßen auf Kaliningrad!

    Privet! Kak dela?

    Wie ist das mit den Platten? In den Tutorials wird überall von sdb gesprochen, wir haben ja bei netcup nur eine virtuelle Festplatte, wie geht Ceph damit um?


    Ich habe derzeit auch ein Ceph-Cluster in der Installation. Aus der "Not" heraus habe ich die große Festplatte, /dev/sda in vier Partitionen aufgeteilt. Der Punkt ist, und da sind wir eben bei den Tutorials, dass Ceph vermutlich unbedingt eine eigene Festplatte benötigt, die nur seitens NetCup als /dev/sdb installiert werden kann? Ceph tielt sind bei der Initialisierung der Festplatte diese wohl in ein Journal-Teil und einen Data-Teil auf, also partitioniert. An der STelle stehe ich gerade.


    Also daher meine Frage ans NetCup-Team, was ich tun muss, meine Storageplatten als /dev/sdb zu sehen und zu nutzen? Und ob ich das selbst verwalten kann?


    Beste Grüße

    Moinsen nochmals,


    ich nutze im übrigen das VLAN-Produkt für Server mit einem extra NIC (Netzwerkkarte). Dadurch wird ein internes Netzwerk aufgebau, dass von außen auch nicht einsichtig ist.

    Hier noch ein interessantes HowTo https://www.howtoforge.com/tut…-cluster-on-ubuntu-16-04/


    ich habe im Moment zwei Storage Server S 8000 G7 mit jeweils 10 TB (9,5 TB netto). Im Hintegrund sorg NetCup durch ein klassische RAID für die Datensicherheit. Dann habe ich noch zwei Maschinen RS 4000 G8. Dort kommt dann ein Docker mit Postgres Cluster drauf. Ist auch nutzbar für Admin und Monitor. die bieden lassen sich verteilen. Verbunden wird es über ein eigenes VLAN mit NICs in den Maschine.


    Insgesmat habe ich einen Kubernetes Master plus 2 Nodes implementiert.

    Hallo,


    kurz vor dem Jahresende stehe ich vor einem ganz ähnlichem Thema zur Lösung eine Secondary. Wenn man das nicht jeden Tag macht, dann ist es nicht ganz so einfach. Ich habe Plesk 17 am Laufen auf einem RS 1000. Dort ist es eben auch möglich einen Slave anzusprechen und entsprechend zu synchronisieren. Der Name Server wird dann bei mir in den Domains eingetragen. Alternativ habe ich verstanden, dass die Zonen auch manuell auf dem DNS von NetCup für dort verwendete Domains angelegt werden können. Ist natürlich manueller Aufwand!


    Die Frage wäre, ob es eine Möglichkeit gibt, die Zonen auch mit dem NetCup direkt als Slave austauschen zu können?


    Best + Ein erfolgreiches 2018