Beiträge von Bensen

    Danke erstmal für deinen ausführlichen Beitrag & Aufklärung!


    Wahrscheinlich hab ich mich die letzten Tage einfach zu sehr auf die TDP und SoC Eigenschaften konzentriert. Gerade wenn man bedenkt daß das von mir oben verlinkte Board ~230€ kostet und dann schlussendlich doch recht unflexibel ist...



    Ich würde ein ganz normales, günstiges ATX Mainboard mit einem 65W Prozessor nehmen. Das bringt genug Erweiterbarkeit für alle künftigen Pläne mit (inklusive mehr RAM - wichtig bei VMs und Docker Containern) und verbraucht nicht so viel mehr.

    Kannst du hierzu eine Empfehlung geben welches Board+ CPU am meisten Sinn ergeben würde?

    So ich hab die letzte Tage noch mal bisschen umgeschaut und bin zu dem Entschluss gekommen das ganze auf einen N100 ATX Mainboard aufzubauen.


    Aktuell bevorzuge ich dieses Board. N100, DDR5, 2x nvme pcie3.0, 4x2,5g LAN.


    Zudem könnte ich per PCIe noch eine Erweiterungskarte nutzen (dann würde allerdings die zweite nvme line wegfallen, was aber vollkommen okay ist).


    Was mich bislang nur daran stört ist das es nur einen SO-Dimm Slot gibt (dafür aber bis 32gb kompatibel*). Zudem verstehe ich nicht was damit gemeint ist, dass nur der erste Sata3.0 Port native ist? Wie sind die anderen angebunden bzw. ergeben sich dadurch Nachteile?


    *Laut n100 Spezifikationen wird nur 1x Slot mit max 16GB unterstützt.


    Ist AliExpress vertrauenswürdig oder gibt es bessere Alternative für ein n100 Board mit identischen Specs?


    Was haltet ihr davon? Klar absolut Overkill aber dafür langfristig nutzbar/upgradeable und trotzdem überschaubarer Energieverbrauch.

    Von der Performance würde das absolut ausreichen. Wie gesagt der GK41 macht seine Sache gut aber was mich stört ist, dass ich keine Möglichkeit habe 2-3 Festplatten per SATA anzuhängen oder den Arbeitsspeicher aufzurüsten.


    Daher meine Überlegung das ganze auf ATX aufzubauen um das ganze Modular zu halten.


    ordentliche backups habe ich nie lokal, ich bedien mich da beim großen roten H mit einer St0rage B0x die ich mit BorgBackuo befülle.

    Mach ich genauso dennoch würde ich das ganze auch Zuhause haben wollen. :saint:

    Hey,


    ich bin auf der Suche nach passender Hardware für einen kleinen Home Server. Dieser soll primär als Backupspeicher dienen aber auch mehrere kleine Docker Container und eventuell kurzfristig auch mal ne VM hosten können. Als Betriebssystem wird unraid eingesetzt.


    Testweise habe ich unraid auf einem Miniforums gk41 installiert. Dies ist für den Anfang auch soweit in Ordnung wird aber definitiv schnell an seine Grenzen kommen.


    Als Gehäuse habe ich an das Chieftec CI-01B-OP gedacht. Dies unterstützt µATX Boards und bietet ausreichend Platz für Hardware.


    Jetzt ist halt die Frage welche Hardware (CPU, RAM, Mainboard, Lüfter, Festplatten etc.) ist am besten geeignet?


    CPU & Mainboard bin ich komplett überfragt was man da nehmen sollte. Wichtig wäre einerseits ein geringer Stromverbrauch in idle Mode aber anderseits soll halt auch genug Rechenleistung verfügbar sein um mal kurzfristig ne VM drauf laufen lassen zu können. Zudem sollte AES-NI unterstützt werden.


    Arbeitsspeicher wurde ich am liebsten direkt 2x16GB nehmen wollen. DDR4 o. DDR5 mit ECC oder ohne?


    Festplatten: HDD hab ich die WD Red (Pro) Serie ins Auge gefasst. Jetzt hab ich gestern noch was von den Toshiba N300 NAS HDDs gelesen, taugen die was? Als Cache würde ich zusätzlich noch 1-2 Crucial MX500 SSDs nehmen.


    Ohne die Festplatten hab ich so um die 300€ veranschlagt. Wenn es für 50€ mehr bedeutend besser Hardware gibt ist das kein Problem. Sollten allerdings schon 200€ für mein Vorhaben wäre das natürlich auch super!



    Was sagt ihr, passt das grobe Setup und welches Board, CPU & RAM sollte ich nehmen?

    reicht für unterwegs die myblue:app?

    Ne leider nicht. Bluesolution ist zwar in Vergleich zu anderen Anbietern schon Recht gut aufgestellt was die mobile Lösung angeht aber um wirklich den voll Funktionsumfang nutzen zu können benötigt man definitiv die Destop Software.


    Ich werde erstmal den Weg gehen und das ganze per Laptop + SMB Share ausprobieren. Denn alles andere ist schon sehr viel Aufwand und evtl. auch einfach toll much...


    Danke erstmal für eure Hilfe!

    Du schreibst Einzelplatzlizenz, sieht diese Lizenz überhaupt eine parallele Nutzung über RDP vor?

    Nein eben nicht. Hab im im Eingangspost ja geschrieben daß es pro Nutzer/Desktop ist und ich somit eine vernünftige Lösung suche dies umzusetzen ohne direkt mehrere Windows Instanzen parallel betreiben zu müssen.


    Wie würdet ihr das am besten umsetzen?


    Du willst eine klassische Windows Applikation mit dem Tablet bedienen. Klar alles möglich aber ob das sinnvoll ist sei mal dahingestellt. Ich denke Du solltest Dich an ein seriöses Systemhaus wenden. Die Beratung hier kann nur stochern im Nebel sein

    Ja ich glaube mittlerweile auch das es wohl besser ist alle berechtigten Mitarbeiter mit Laptops auszustatten und dann mit SMB Freigabe zu arbeiten. Aber eventuell kennt jemand ja noch einen anderen interessanten Lösungsansatz.

    Wenn das der Fall ist, ist die Antwort einfach: Packe das jeweils lokale Datenverzeichnis der einzelnen Installationen in einen Cloudordner, also SMB oder sowas. Ggf. reicht es auch, wenn die auf einem synchronisierten Ordner liegen (Onedrive oder sowas).

    Oh ja, ganz vergessen. Es soll Plattformunabhängig darauf zugegriffen werden können. Da alle mit Tablets ausgestattet sind und nur wenige Laptops besitzen.

    Wie wird sichergestellt dass nicht zwei Benutzer gleichzeitig Daten verändern?

    Darum kümmert sich die Software. Hier ist es ja egal ob ich lokal davor sitze oder es per remote mache.

    Was spricht dagegen einfach Rechner in der Cloud zu nehmen und diese per RDP zu kontaktieren?

    Muss dann halt die ganze Infrastruktur in der Cloud sein.

    Und ein VPN sollte davor.


    Kann denn der Hersteller der Software hier nicht sinnvoll helfen?

    Kennst du Anbieter die sich darauf spezialisiert haben bzw. dies out of the box anbieten. Weil bekanntlicherweise die Lizensierung nicht einfach ist und das ganze permanent sicher zu halten wird sicherlich nicht einfach werden.


    Weil ich hab auch schon überlegt nen größeren RS von netcup zu nehmen, darauf mehrere Windows 10 Instanzen zu betreiben, die Netzwerkschnittstelle komplett abdrehe, vlan zur linux Kiste und dann per VPN ne Zugriffs Beschränkung zu realisieren. Die Frage ist halt ob das Sinn macht und wie ich bestmöglich die einzelnen Windows Instanzen parallel betreiben kann.



    Windows Server, Programm dort installieren - jedem Nutzer ein Profil geben und mittels RDP auf den Server zugreifen und das Programm verwenden.

    Habe ich schon ein paar mal so umgesetzt.

    Können gleichzeitig mehrerer Benutzer angemeldet sein?

    Mahlzeit,


    wir wollen in Zukunft eine Handwerkersoftware nutzen welche allerdings nicht direkt "cloud-fähig" ist. Die Anwendung muss pro Benutzer/Desktop (Einzelplatzlizenz) auf einem Windows-System installiert werden und alle Benutzer verwenden das selbe Datenverzeichnis sowie Datenbank.


    Nun ist es so das wir kaum im Büro sind und meist direkt von der Baustelle oder Zuhause darauf zugreifen möchten . Wie kann ich dies am besten, sichersten & Performant umsetzen?


    Mittlerweile kann man ja durchaus unter Windows ein und das selbe Programme mehrfach starten oder auch virtuelle Desktops nutzen. Diese Funktionen sind aber wohl ausschließlich für einen Benutzer pro PC gedacht und führen bei mehreren parallelen Nutzern wahrscheinlich zu Problemen....


    Kann man Windows evtl. in schlanken Containern laufen lassen? Dann könnte man ja die Hardware in die Firma stellen Windows darauf 3-4 mal virtualisieren und über z.B. SMB die Freigabe für Datenverzeichnis+Datenbank realisieren. Die Frage ist dann nur wie ich darauf sicher aus der Ferne zugreifen kann. Evtl. nen VPS/RS mit firewall/vpn vor den Windows Host setzen?


    Macht das Sinn oder gibt es eventuell sogar Anbieter die da ne fertige Lösung für mein Problem anbieten?

    Moin,


    Kennt wer ein gutes "social Media Video/photo Downloader" Script welches webbasiert ist und mit den gängigsten Plattformen umgehen kann? Hab da 2-3 auf die schnelle auf GitHub gefunden aber entweder komplett veraltet oder kaum Funktionsumfang.

    Ich bin für meine 70. jährige Tante auf der Suche nach einem neuem Navigationsgerät für PKWs. Zuvor hatte sie eins von Garmin aus der Serie DriveSmart für um die 200€. Jetzt hab ich gesehen das es durchaus auch schon Navis unter 100€ gibt.


    Habt ihr da eventuell Empfehlungen hinsichtlich Bedienbarkeit & aktuelles Kartenmaterial (updatetauglich)?

    Shopware 5 wäre auch sofort meine Empfehlung gewesen. Bei Shopware 6 ist wohl alles deutlich komplizierter geworden…

    Wenns was kleines ist würd mir auf Anhieb Woocommerce oder Oxid einfallen.

    Lohnt es denn deiner Meinung nach noch mit Version 5 CE anzufangen (EoL Juli 2024) oder direkt auf Version 6 CE aufbauen und den scheinbar größten Aufwand in Kauf nehmen?


    Woocommerce & Oxid wären wahrscheinlich auch nicht verkehrt aber dann ist es mir doch lieber eine reine Shopsoftware mit einer großen Community zu nutzen.

    Welche selfhosted Shopsoftware ist aktuell state of the art und ist zu empfehlen?


    Über den Shop sollen ausschließlich physische Produkte verkauft werden.


    Anbindung an Zahlungsdienstleister, Buchhaltung sollten natürlich out-of-the-box vorhanden sein.

    Kann ich eine netcup Domain welche keinem webhosting zugeordnet ist und die desec Nameserver nutzt trotzdem mit den Mailserver von netcup koppeln?


    Oder gibt es eine kostenlose alternative worüber ich für die Domain Mailadressen anlegen & dementsprechend auch verschicken kann?

    Was genau meinst Du mit "frei konfigurierbar". Es gibt keine Konsole, auf der man was ändern könnte, sondern einen NC Login. Man kann beliebig viele Benutzer und beliebige Plugins installieren - sofern diese halt nicht eine separate Konsoleninstallation eines Bestandteils benötigen.


    Man kann beim Setup eine Custom URL (z.B. nextcloud.eigenedomain.tld ) angeben, die dann ohne jeglichen Aufwand verwendet wird. Externer Speicher kann mit dem Plugin eingebunden werden, so auch z.B. die parallel angebotene "Storage Box" (habe ich auch, die kleinste), die man z.B. auch für Backups von Netcup aus verwenden kann.


    Ich finde beide Angebote schon sehr angenehm und performant. Nextcloud als Container hinter nem Nginx Proxy Manager habe ich bisher nicht wirklich zum Funktionieren gebracht (wenn da jemand ne passende docker-compose hat nur her damit), daher halt die "plug and play" Variante.

    Ich muss deren Angebot definitiv mal testen. Die Preis/Leistung scheint ja wirklich zustimmen und wenn die Performance wirklich besser ist, ist ein Umzug sicherlich eine Überlegung Wert.

    Also mein Nextcloud auf meinem RS reagiert sehr flott, da ist auch nichts mit 2-3 Sekunden Verzögerung. Ihr müsst auch die PHP-FPM Konfiguration anpassen, denn die Standard Werte sind für'n Arsch. Gleichzeitig müsst ihr auch die Backend-DB anpassen, dann passt es auch mit der Performance.

    Hier (Link) zum Beispiel könnt ihr euch wunderbar an der Konfiguration orientieren. https://www.c-rieger.de/nextcloud-installationsanleitung/

    Magst du uns deine DB/php configs preisgeben? Denn die c-rieger sowie die performance/tuning docs von nc selbst & dutzende weitere Internetseiten habe ich alle durchgearbeitet aber egal was ich mache, die 2-3 sek bleiben.


    Hat du ne größere Instanz mit mehreren Apps oder nutzt du deine nextcloud rein als Datenablage?

    Hm, das rote H bekommts mit seiner gehosteten Version sehr zügig hin. Da ist nichts von den 2-3 Sekunden merkbar.

    Ob die mir wohl ihre Konfiguration zur Verfügung stellen? 8o


    Es gibt ja in der H Console das fertige nextcloud Image aber das wird wohl nicht 1:1 das sein was sie für ihre storage Produkte nutzen.....


    TBT ist die gehostete nextcloud genauso frei konfigurierbar als wenn man sie selbst hosten würde?

    So, ich hab nun den db server (mariadb 10.6 (von nc empfohlen)) direkt auf den nextcloud host umgezogen. Absolut keine Veränderung -.-


    Da ich zuvor schon das halbe Internet nach performance/tuning Tips in Sachen php/mysql/cache & nextcloud selbst durchforstet habe, viele Sachen wirklich granular angepasst habe, keine positiven Effekte erzieht habe, ne menge Frust gehabt habe ( :rolleyes: ) Schiebe ich nun das Problem schlichtweg auf Nextcloud und gut ist....


    Kennt Ihr ownCloud Infinite Scale? Dies ist soll nahezu komplett in go geschrieben sein und fucking pfeilschnell sein. Aber wie stehts um die Apps & Anpassbarkeit wie bei nextcloud? Wäre ein Wechsel sinnvoll?


    edit:

    Kann es eventuell an den DNS Resolver Einstellungen vom Server selbst liegen? Das diese zu langsam auflösen oder anderweitige Konflikte auftreten? Hier im Forum liest man ja häufiger, dass die von netcup hinterlegten Standard DNS Resolver Probleme bereiten sollen....

    Die Datenbank nicht auf dem selben Host zu haben, könnte in jedem Falle ein ordentlicher Flaschenhals sein. Auch wenn die Latency recht gering ist.

    Stimmt, das habe ich mit der aktuellen Konfiguration noch gar nicht getestet. Im Netz findet man mehrere Beiträge die bei kleinen Servern zu einer Auslagerung der Datenbank raten. Da das ganze jetzt aber auf einem RS4000 läuft sollte das keine Rolle mehr spielen.


    Wie sind nginx und fpm verbunden? TCP auf Localhost oder per Unix Socket? Ersteres könnte ein Bottleneck sein.

    per socket angebunden.


    100 GB OPCache könnte was bringen.Konnte es aber mangels RAM noch nicht probieren.... Im Ernst, also 2-3 Sekunden habe ich bei einem Benutzer auch. Mit Apache, ohne sonstigen Cache außer OPCache. Wenn das bei euch trotz aller Caches und nginx auch so ist, dann wird das wohl der Normalzustand sein ;) .


    Edit: OK, gelogen, APCu ist verfügbar und als lokaler Memcache eingestellt.

    memcache, apcu (opcache) , jiit, redis ist alles aktiv & konfiguriert.