Beiträge von Nafi

    Wenn wir mal von fortgeschrittenen Anwendungen mit Server-Side Rendering absehen, wird Javascript rein im Browser ausgeführt. Daher ist dies auch bei Netcup nicht besonders erwähnt, weil der Server damit nichts zu tun hat.


    Also kurz und knapp: Angular auf WebHosting 1000 funktioniert.

    Das Stichwort ist dann wohl KVM over IP. Meistens haben die dann irgendeinen ASMedia oder Broadcom Chip verbaut und eine VGA Buchse :)

    Zumindest hatten alle Server, mit denen ich bisher gearbeitet habe solch eine Lösung.


    iGPU in Xeon CPUs gibts ja auch noch gar nicht so lange und wurde meiner Ansicht nach auch nicht primär eingeführt, damit der Server mehr Monitorausgänge hat, sondern um die Vorteile von Intel Quicksync auf einem Server nutzen zu können, z.B. für Streamingserver.

    theoretisch kannst du für die IP Adresse ein Zertifikat bekommen. Dies ist aber eher unüblich.

    Du solltest die Domain per A Record auf die IP zeigen lassen und diese dann zum Aufrufen verwenden.

    Du musst das Zertifikat auch noch unter "Bindungen" (Rechte Sitebar im IIS Manager) auswählen.

    Außerdem solltest du die Webseite dann über die Domain und nicht über die IPAdresse aufrufen, da dein Zertifikat vermutlich nicht für die IPAdresse gilt.


    Das "Require" bei Client Certificates solltest du übrigens wieder rausnehmen. Das hat mit deinem SSL Problem nichts zu tun, sondern erfordert ein Zertifikat deiner Benutzer.

    Also ich habe gerade die URL2 mithilfe des bereitgestellten node.js snippets abgerufen und das korrekte JSON erhalten.

    Verwendest du genau das snippet, welches du hier zur Verfügung gestellt hast? Oder könnte es sein, dass im produktiven Code die URL schlicht falsch ist?

    Das mit den vielen IpV6 Adressen habe ich bei mir im Netzwerk auch. Die Ursache liegt allerdings nicht in irgendwelchen Fehlfunktionen in Windows, sondern daran, dass ich von Netcologne ein dynamisches IpV6 Prefix bekomme (total nutzlos btw, das macht die ganzen Vorteile von Ipv6 zunichte).


    Jetzt ist es so, dass es ja bei Ipv6 "preferred lifetime" und ein "valid lifetime" gibt. Wenn diese Werte allerdings zu groß gewählt sind, das Prefix allerdings regelmäßig(in meinem Fall täglich) wechselt, sammelt Windows jeden Tag neue Ipv6 Adressen und behält diese, bis die lifetime abgelaufen ist.

    In meinem Fall habe ich ein kleines Skript für meinen Router(Mikrotik), welcher im Falle eines Prefixwechsels das Alte Prefix erneut per RA-Advertising ausgibt, jedoch mit einer lifetime von 0s, sodass Windows das binding des alten Prefix löscht.

    Docker bietet halt noch den Vorteil von Infrastructure as Code. Bedeutet, dass Installationsskripte mit im Repository liegen können und Konfigurationen dann per Umgebungsvariablen/Secrets spezifisch je Container gesetzt werden können. Auch kann jeder Container seine eigenen Dependencies haben, weil jeder Container quasi seine eigene Verzeichnisstruktur ab / hat. Durch die Bind- und Volumemounts ist je Container klar definiert, welche Verzeichnisse benötigt werden. Diese können dann im Fall der Fälle sehr einfach auf ein anderes System migriert werden.


    Zudem ist das Hostsystem dann egal. Ob das dann Debian, Suse oder RedHat ist, oder ein Cloud-Anbieter wie AWS, Azure, Openshift ist, spielt (bis auf ein paar Fallstricke beispielsweise beim mounten von Verzeichnissen) keine Rolle.


    Ich setze inzwischen ausschließlich auf Container. Sowohl auf meinem Homeserver, als auch auf dem vServer. Im Job gehen wir inzwischen immer auf Kubernetes, sofern mit dem Kunden vereinbar.


    Die Verwaltung ist ein wenig Ansichtssache. Schöner kann Docker natürlich sein, wenn man viel automatisiert. Ohne wirkliche Automatisierung macht Docker nicht wirklich Sinn.

    Sehe ich nicht so. Selbst wenn ich das Erstellen von Containern nicht automatisiere, bietet Docker mir den Vorteil, dass meine Images durch die Tags versioniert sind, ich je Container ein Monitoring einrichten kann(Prometeus, Grafana)

    Außerdem betreibt man ja im Dockerkontext fast immer einen Reverseproxy wie HaProxy, Nginx oder Traefik. Diese bieten dann zumeist auch noch sehr einfach die Einbindung von Letsencrypt, per http Challenge sogar ootb. Hostname und Port festlegen und der Dienst ist online. Leichter kann man eine Webseite meiner Meinung nach kaum hosten. Selbst mit Plesk oder einem ähnlichen Panel könnte ich vermutlich eine Webseite nicht so schnell bereitstellen wie auf einem Dockerhost.

    Keine Sorge, spätestens in der Uni hast dann wieder vollen kostenlosen Zugriff auf alle Microsoft Produkte, inkl. Windows Server, oder Office ?

    Und auch danach noch weiterhin wenn man bei einem Unternehmen arbeitet, welches im Microsoft Partner Network ist ?

    [netcup] Felix P.

    Ich habe gerade was im Wiki gefunden:

    Klicken Sie auf AV-Vertrag erstellen, um den Vertrag mit uns abzuschließen. Wir speichern eine Kopie des Vertrages. Uns reicht zum Abschluss Ihre elektronische Unterschrift. Wenn Sie es wünschen, können Sie uns Ihre Version des Vertrages auch unterschrieben via Briefpost zukommen lassen. Wir werden den Vertrag dann in unserem Archiv ablegen. Klicken Sie dazu auf "SEPA-Mandat löschen".

    Da passt was nicht :)


    Quelle: https://www.netcup-wiki.de/wik…_CCP#Auftragsverarbeitung ganz unten

    Einfach irgendwelche Tutorials abzuarbeiten ist halt immer so eine Sache...


    Du hast das Image mit Debian+Froxlor installiert. Dort müsste prinzipiell erst einmal im Auslieferungszustand alles funktionieren. Soweit ich mich erinnern kann, reicht es dort aus, fail2ban zu installieren und die entsprechenden jails zu aktivieren. Für eine Mail Benachrichtigung müsste man dann die entsprechenden Einstellungen vornehmen.
    Dafür musst du aber erst einmal wissen, welche Dienste überhaupt auf deinem System laufen. Wenn du das verlinkte Tutorial bis zum Ende durchgegangen bist, hast du dein lauffähiges System nun vermutlich etwas beschädigt. Beispielsweise hast du dann zusätzlich zum Apache noch den Nginx-Webserver installiert(dies wird vermutlich beim reboot probleme geben) und Postfix durch sendmail ersetzt. Das wird möglicherweise auch der Grund sein, dass du keine Logeinträge des Mailservers mehr bekommst.


    Davon abgesehen: Wieso möchtest du per Email informiert werden wenn eine IP durch fail2ban gesperrt wird? Ist dir bewusst, dass du mitunter Dutzende oder gar Hunderte Emails pro Tag bekommen wirst?


    Installier das Image am besten noch einmal komplett neu, analysiere die installierten Dienste und versuch dann die Email Benachrichtigung erneut einzustellen.

    theoretisch solltest du im optimalfall mit ca 1.8MB/s laden können, siehe Bandbreiten-Rechner



    Ich hab im moment auch ein komisches Problem:


    Wenn ich von meinem vserver etwas herunterlade, sei es über HTTP, (S)FTP, SCP oder was auch sinkt die Downloadgeschwindigkeit nach einer Weile auf ca 700kbit/s ab.
    Lade ich über HTTP mittels Downloadmanager herunter, hab ich meine vollen 50Mbit/s. Und das auch dann, wenn nur eine Verbindung genutzt wird!
    Speedtests meines Vdsl-Anschlusses sowie des vservers bescheinigen gute Werte...


    Jemand eine Idee woran das liegen könnte? Das Uploaden zum Server funktioniert wie immer.