Beiträge von void

    Ich bin aktuell auch mit einer IP bei einem anderen Hoster betroffen, da wurde auch das ASN auf Level 3 gelistet. Die Antwort von Support war da: "Wir wisssen von dem Problem und gehen davon aus, dass es in den nächsten Tagen behoben ist." Also vmtl hoffen die auch nur drauf, dass sie in einigen Tagen auch gedelistet werden. Ich behalte mir vor, hier weiter zu spekulieren.

    Ich empfinde diese Seite allerdings auch nur als eine Frechheit. Super "moderne" Webseite ohne Impressum, voller arroganter Aussagen und inklusive Blossgestellter Kontaktanfragen. Die sind zwar teils schon auch nicht ohne Tippfehler aber... naja...

    Alles in allen wirken die einfach nur unseriös und ich wundere mich ebenfalls, wie die in Behörden gekommen sind.

    Keine Angst, dass du bei Microsoft im Junk landest hat überhaupt keine Ausagekraft. Die sind dafür bekannt, sich gegen alles zu versperren, wo nicht ihr eigener Name hinter dem @ steht. Hab auch schon gehört, dass von jemandem Mails normal ankommen, wenn er aus der Programm Outlook schreibt, sonst jedoch auch im Spam landen.


    Mit Yahoo hab ich persönlich bislang keine Erfahrung. Aber mal kurz die Suchmaschine benutzt:

    Du kannst ihnen mal eine Anfrage über dieses Formular schicken, kurze technische Details machen sich wohl am besten. Scheint ein normales Kontaktformular zu sein:
    https://io.help.yahoo.com/cont…el=email-icon&isVip=false
    Und im Postmaster Programm anmelden:
    https://help.yahoo.com/kb/postmaster

    Google hat übrigens auch so ein Postmaster Programm. Da kannst du dich mit gewissen Methoden authentifizieren, dass die entsprechende Domain auch wirklich dir gehört, dadurch wirkst du für die wohl seriöser. Mit Google hatte ich bisher keiner Probleme. Bin da nur mit meinen allerersten Mails, und als ich noch nicht beim Postmaster Programm angemeldet war, im Spam gelandet.

    Vielen Dank, @DatAres

    Das hat bei mir auch funktioniert.


    Es kann allerdings sein, dass man beim Update Probleme bekommt, wenn man was an der docker-compose.yml ändert. Deswegen hab ich die (fast) nicht angetastet. Dort habe ich nur die Portbindings für `nginx-mailcow` auskommentiert, wie von dir beschrieben:


    Code
      nginx-mailcow:
         #ports:
         #- "${HTTPS_BIND:-0.0.0.0}:${HTTPS_PORT:-443}:${HTTPS_PORT:-443}"
         #- "${HTTP_BIND:-0.0.0.0}:${HTTP_PORT:-80}:${HTTP_PORT:-80}"


    Um Updateprobleme nicht herauszufordern kann man eine Datei docker-compose.override.yml schreiben, in der dann alle Anpassungen stehen. Dabei ist es wichtig, wenn man Netzwerke hinzufügt, alle vorhandenen auch nochmal mitzunehmen:





    In den Dateipfaden konnte ich die Environment Variablen nutzen, als alias in den Netzwerken war das aber bei mir nicht möglich.


    Eine nette Spielerei am Rande: anderes_netzwerk ist ein beliebiges anderes Docker-Netzwerk. Damit ist es Containern aus anderen Projekten möglich, lokal über postfix Mails zu versenden. Weil hier die URL als alias verwendet wird dürfte es auch nicht zu Zertifikatsproblemen kommen.


    Vielen Dank an den "Chefentwickler" (glaube ich) von Mailcow, André, der hat mir den Tipp mit der override Datei gegeben.

    Ich will hier jetzt keinen Mitbewerber pushen, immerhin bin ich ja im Netcup Forum :D

    Aber ich habe, nachdem ich hier die Lösung des Problems gefunden habe, gleich einen Serverumzug weg von Str... unternommen und siehe da: alles hat aufs erste Mal funktioniert.


    Das ist wirklich nervig, wenn man (gerade als Server Neuling) die ganze Zeit den Fehler bei sich selbst sucht.


    Ich möchte nur noch betonen, dass ich so genervt war, dass ich am Sonntag Abend auch noch dem netcup-Support geschrieben habe. Ich habe innerhalb einer halben Stunde eine Antwort mit mehreren Links bekommen! Auch wenn der hier leider erstmal nicht weitergeholfen hat - das hat jegliche Erwartungen übertroffen :)

    Danke netcup!

    Hm... Die Kopfzeile in dem File sieht so aus:

    resource - held - maxheld - barrier - limit - failcnt

    Bei numproc sieht das so aus :

    numproc - 386 - 386 - 400 - 400 - 0


    Du hast wohl Recht mit deiner Annahmne... Dann würde ich aber davon ausgehen, dass der failcnt nicht mehr bei 0 steht

    Hier habe ich eine Erklärung gefunden. held und maxheld sagen also aus, dass ich mich an der Grenze befinde.

    https://virtuozzosupport.force.com/s/article/000013558


    Na toll. Dann hilft wohl nichts außer einen besseren Provider zu finden :D

    (Ich bin zwar von den netcup Leistungen sehr begeistert, für so ein "kleines" Projekt neben dem Studium sind mir die Angebote hier aber leider zu teuer)

    Danke für den Hinweis! Die Datei heißt /proc/user_beancounters

    Wenn ich das richtig sehe, kann ich hier aber nur Informationen einsehen und nichts ändern oder?

    Die Werte sind aber bei mir alle irrsinnig hoch. Nur "nomproc" ist auf 400. Da ich aber laut top/ps nur 74 Prozesse laufen habe scheint das für mich auch nicht der Grund zu sein...

    Hi, ich habe ein Problem mit docker-compose auf einem mit Virtuozzo gehosteten VPS.

    Ich möchte auf dem Server ein paar Webservices hinter nginx-prox zusammen mit docker-letsencrypt-nginx-proxy-companion hosten.


    ##Setup

    Der Server läuft mit 4GV vRAM und 4 vKernen
    Betriebssystem ist Ubuntu 18.04.4

    Docker version 19.03.6, build 369ce74a3c
    docker-compose version 1.17.1, build unknown



    ##Das Problem

    Sobald ich auf dem Server mehr als 8 Container starten will, bekommen ich scheinbar zufällig eine ganze Reihe verschiedener Fehler. Wann genau welcher davon auftritt kann ich kaum ausmachen. Ich poste hier mal ein paar Fehler, die auftreten, wenn ich einen Joomla Container mit MariaDB starten will:


    - OCI runtime create failed

    ERROR: for joomla_joomladb_1 Cannot start service joomladb: OCI runtime create failed: unable to retrieve OCI runtime error (open /run/containerd/io.containerd.runtime.v1.linux/moby/741c[...]6e3/log.json: no such file or directory): fork/exec /usr/sbin/runc: resource temporarily unavailable: unknown


    - socket zurückgesetzt

    ERROR: for joomla_joomladb_1 Cannot start service joomladb: read unix @->@/containerd-shim/24f42b8[...]32fa1.sockread: connection reset by peer: unknown


    - pthread_create failed: Resource temporarily unavailable
    Ganze Fehlermeldungen hierzu habe ich momentan leider nicht. Was aber immer auftaucht war sowas wie parent id not found

    - fork failed.

    Oft resultiert das dann darin, dass ich den Server in keinster Weise mehr bedinen kann. Die schon laufenden Container bieten zwar online ihren Service noch an, ich kann aber die Konsole nicht mehr bedienen. Ich bekomme dann bei jedem Tastenanschlag ein fork failed. Ressoucre temporarily not available Das einzige, was ich dann noch tun kann ist eine andere Shell (z.B. sh) zu öffnen und in der ein suzu machen. Aber sämliche Kommandos wie reboot, shutdown, ls, docker sind nicht mehr möglich. Ich kann dann nur noch über das Webinterface das Providers einen reboot machen.


    ## Lösungsversuche

    - Bei Recherchen stoße ich immer nur auf Hinweise dazu, dass die Anzahl der Tasks in Ubuntu begrenzt ist. Die zugehörige Config hochzuschrauben hilft aber auch nicht. (Ich habe hierzu die /etc/systemd/system.conf geändert und per `systemctl edit docker.servicemein Glück versucht)


    $ systemctl show --property=DefaultTasksMax

      DefaultTasksMax=4659

    $ systemctl status docker

    ...

      Tasks: 52

    ...


    - Ich habe das System einmal auf meinem Laptop in Quemu aufgesetzt. Gleiche Docker-Container, gleicher RAM, gleich viele CPU Kerne, gleiche SSH einstellungen, gleiche cron Jobs, gleiche shell (zsh mit Plugins). Hier rennt alles wie erwartet...

    - Wenn ich andere Container dafür beende, dann kann ich dafür einen anderen starten. Es scheint also tatsächlich an der Anzahl der Container zu liegen und nicht an der jeweiligen Konfiguration.

    Wenn 8 Container laufen, kann ich ich auch z.B. den hello-world container nicht starten.

    - Ich habe den Hosting-Provider kontaktiert, der hat mich hierbei aber auch nur auf eine mögliche Begrenzung duch "DefaultTaskMax" hingewiesen und gemeint, sie würden die Maschine von außen nicht limitieren.


    Hier zu sehen ist das nervige Problem mit "fork failed", z.B. wenn ich versuche sudo zu schreiben.

    [1]: https://i.stack.imgur.com/cXzNw.png

    Hier ein Beitrag zu DefaultTaskMax:

    [2]: https://success.docker.com/art…s-due-to-tasksmax-setting

    Hi, wenn ich dich richtig verstehe, dann möchtest du auf das gleiche Setup hinaus, das ich auch habe.

    Mein DNS-Eintrag führt soweit nur ein "*" und ein "@" auf die IP meines VPS.


    Allen Docker-Containern, die von außen erreichbar sein sollen ,gebe ich dann die entsprechenden Subdomains als Environment-Variablen mit. (Ich habe zusätzlich zum jwilder/nginx-proxy noch einen letsencrypt-container):

    VIRTUAL_HOST=sub.domain.de

    LETSENCRYPT_HOST=sub.domain.de


    Auf diese Weise sind mehrere Domains auf einer IP erreichbar. Soweit hast Du es aber auch, denke ich.


    Du kannst im composefile, oder wie du auch sonst deine Container baust, mehrere Domains als Environment-Variable mitgeben. z.B. VIRTUAL_HOST=domain.de,www.domain.de. Dadurch wäre der Container mit und ohne www erreichbar. Und die anderen Subdomains sind ebenso noch erreichbar.
    Die rewrite-Regel würde ich dann erst in den Configdateien von diesem Container machen und nicht bei dem Proxy. Bei denen hab ich das Gefühl, dass die überschrieben werden.