Posts by msty

    Ich denke ich habe die Antwort. Jedenfalls einen Teil davon. Ich habe das Problem wieder gehabt und ein neues Terminal aufgemacht. Und dann ging es. Möglicherweise funktioniert SSH mit einem lange geöffneten Terminal aus irgend einem Grund nicht mehr. Das würde erklären, warum das Passwort manchmal funktioniert hat und manchmal nicht. Jedes Mal, wenn ich das alte Terminal benutzt habe, ging es nicht.


    Das kommt davon, wenn man Terminals wochenlang nicht schließt.

    Vorteil: BTRFS kann (im Gegensatz zu ZFS) getrimmt werden,

    Ich betreibe ebenfalls LXD auf BTRFS hier auf Netcup. Und zwar wegen dem "Nesting", also weil ich auch Docker-Container einbetten kann. Aber wie trimme ich die denn das? Da das Volumen von LXD gar nicht eingebunden wird, musste ich es erst einbinden, um fstrim auszulösen. Geht das auch ohne mount?

    Hallo,


    ich habe ein seltsames Problem.


    Ubuntu Bionix, LXD Host. Alle Dienste nach außen mache ich per LXD Guests. Es gibt kein Root, sondern einen User, der in der sudo-Gruppe ist. Der SSH-Port wurde auf einen Port jenseits von 10.000 geändert.


    Seit gestern kann ich mich nicht mehr per ssh einloggen. Passwort wird abgelehnt. Ich habe nichts verändert. Also habe ich mich an der Web-Konsole im VCP angemeldet und konnte mich dort mit Passwort anmelden. Dann habe ich einen weiteren Nutzer angelegt, der sich problemlos mit seinem Passwort über SSH einloggen konnte. Aber der Ursprungsuser konnte sich weiterhin nicht mit dem gleichen Passwort, dass per Web-Konsole ging per SSH einloggen. Nachdem ich zweimal das Passwort vom Ursprungsuser verändert habe, ging es doch dort auch wieder über Passwort per ssh.


    Dann heute morgen wieder das gleiche Spiel. Dieses mal ging sogar der Login über die Web-Konole mit dem neuen Passwort nicht.


    Ich habe in /var/log/auth.log nachgesehen und nur meine Logins und die fehlgeschlagenen Versuche gefunden. Einzig eine Zeile ist seltsam:


    Bad protocol version identification '\003' from 185.156.177.107 port (wechselnd)


    Aber das wird ein Port-Scan sein, weshalb ssh darauf gar nicht reagieren kann.


    Ich habe jetzt mit dem Rescue-System per chroot einen neuen User angelegt, der sich problemlos per ssh einloggen kann. Was das alles so seltsam macht. Gestern konnte ich mich per Passwort (ich nutze keepass2 auf einem Linux-Desktop) mit dem Ursprungsuser und dem neu gesetzten Passwort einloggen. Und heute schon nicht mehr mit der selben Methode. Und sobald ich einen neuen User anlege, kann der sich einloggen.


    Ich bin vollkommen ratlos. Warum geht der Login an einem Tag und am nächsten nicht mehr? Warum funktioniert ssh mit dem Passwort nicht, was per Web-Konsole geht, während sich ein weiterer User per ssh mit Passwort anmelden kann? Was ist da los? Das einzige, was mir noch einfällt ist, dass ich regelmäßig im Zug mittels Smartphone-Hotspot arbeite und deshalb generell die Verbindung schlecht ist. Dass da SSH irgendwie was aussperrt?

    Hallo Netcup,


    mich treibt seit einiger Zeit schon diese Frage um: Warum gibt es keine Premium-Webhosting-Angebote mit wesentlich mehr Performance für einzelne Anwendungen? Je teurer die Pakete, desto mehr Domains, mehr Datenbanken, mehr GB usw. bekommt man dafür. Bei Netcup hört das schon bei 10 Euro pro Monat auf. Bei einem prominenten Marktbegleiter, der mit hoher Performance Werbung macht, geht es "auch nur" bis 30 Euro aufwärts. Zudem sind die Unterscheidungsmerkmale auch hauptsächlich im Bereich Domain-Anzahl, Speicherplatz und Datenbanken.


    Hintergrund 1: Viele PHP-Anwendungen sind inzwischen so ausgereift, dass sie als Ersatz für Desktop-Anwendungen dienen können und aufgrund ihrer Flexibilität und Geräteunabhängigkeit auch genutzt werden (Dolibarr, SuiteCRM, etc.). Die Kosten für lokale Anwendungen sind erheblich, wenn man den Support für die Client-PCs etc. mitrechnet. Eine Webanwendung läuft im Zweifel auf dem Tablet oder Chromebook, die Anwender können notfalls von zu Hause arbeiten. Das macht aber erst dann richtig Spaß, wenn es wirklich flutscht. Performance ist hier äußerst wichtig.


    Hintergrund 2: Für Anwendungen, die sich nach außen richten, also Webshops, CMS-Systeme, etc. wird Performance immer wichtiger. Die Kunden sind von Google verwöhnt und bei langen Ladezeiten schnell frustriert. Außerdem spielt die Ladezeit für das Google-Ranking eine Rolle.


    Hintergrund 3: Auch wenn ich mich mit meinen Admin-Fähigkeiten nicht verstecken muss, wäre es vermessen mich mit einem professionellen Webhoster zu vergleichen. Der Skaleneffekt spielt hier eine große Rolle. Ein großer Hoster kann sich Spezialisten und eine gute gewartete HA-Infrastruktur leisten. Das resultiert zwangsläufig in besserer Sicherheit und höherer Uptime. Folglich ist eine Webanwendung auf einem Shared Host bei einem großen Anbieter besser verfügbar als auf einem lokalen oder gehosteten, selbst administrierten Server.


    Vor diesem Hintergrund wäre es für meine Kunden interessant, wenn es entsprechende Angebote für hochperformanten Webspace in dem von Netcup administrierten Bereich gäbe. Warum gibt es das nicht? Diese Frage bezieht sich auch nicht nur auf Netcup. Ich habe nirgendwo solche Angebote gesehen. Es gibt zwischen Webspace bis ca. 30 Euro pro Monat und Server ab ca. 100-200 Euro eine große Lücke.


    Privat betreibe ich z.B. einen vServer, auf dem ich u.a. Nextcloud installiert habe, weil ich mit der Performance von Nextcloud auf dem größten Webhosting-Angebot von Netcup nicht zufrieden war. Dazu wurde mir vom Support geraten. Für mich ist das in Ordnung, da ich gerne einen Server nehme und darauf auch weitere Dienste installieren kann, die gar nicht im Webhosting funktionieren. Auch preislich ist Netcup da ja sehr günstig. Aber professionell finde ich das unzureichend, da ich, selbst wenn ich ein Systemhaus wäre, keine 24/7-Webserverspezialisten vorhalten möchte, wenn das mein Dienstleister tun kann.


    Wird diese Lücke vom "managed Private Server" gefüllt? Das wäre, preislich, bei Netcup fast ein Alleinstellungsmerkmal. Allerdings halte ich das für ineffizient, da es nicht auf der gemeinsamen Cloud-Infrastruktur für Webhosting aufsetzt. Und ein einzelner Server ist m.E. auch anfälliger. Zumal die Verantwortung nicht so sauber getrennt ist, wie beim Webhosting. Wer kümmert sich z.B. wie weit um die PHP-Anwendung und ggf. Anpassungen? Ein standardisierter, aber hochperformanter Webspace ist dem m.E. überlegen.


    Gibt es dafür kaum Angebote, weil die Anbieter das lieber selber machen und ihren Kunden in Rechnung stellen? Warum dann keine derartigen Reseller-Angebote? Ich stelle mir hier einen Preisbereich von 20 bis 60 Euro pro Monat vor. Mit entsprechender Performance, vergleichbar mit den vServern. Also exklusive Cores und mehrere GB Ram. Viel Webspace, Domains, Datenbanken und Emailadressen sind hier weniger interessant.


    Oder gibt es solche Angebote auf Anfrage, weil sie eher selten sind? Kann man mehr Performance für Webspace individuell buchen?

    Quote

    wurden die E-Mails leider nicht mehr von der Queue aufgenommen, sondern verworfen. Eine Information an den Absender erfolgte darüber bedauerlicher Weise nicht.

    Das hört sich in der Tat bedauerlich an. Wenn das bedeutet, dass Mails tatsächlich gänzlich verschwunden sind. Ohne Meldung an Sender oder Empfänger. Heutzutage gehen die Leute davon aus, dass Mail immer zuverlässig funktioniert. Bei mir sind es glücklicherweise nur private Konten, aber wenn ich geschäftliche Kommunikation darüber abwickeln würde, also zum Beispiel Bestellungen oder so, dann wäre das schon ziemlich bitter.


    Das Blacklisting unserer SMTP-Server ist bei web.de und GMX jetzt entfernt.

    Möglicherweise haben gestern zwischenzeitlich andere Mailanbieter die Blacklists von GMX und web.de übernommen? Die gehören doch alle zu United Internet?

    Vielleicht besteht ja ein Zusammenhang mit der "Lösung" der aktuellen Störung oder der Störung selbst: https://www.netcup-status.de

    Was die Weiterleitung angeht, bekenne ich mich zum Teil schuldig. Ich verwende eine von Netcup zu Mailbox.org. Die ist gestern am Nachmittag ausgefallen. Um 13:30 Uhr hat sie noch funktioniert. Danach kamen bei Tests dann Fehlermeldungen.


    Meine Störung hat nichs mit GMX zu tun. Bei mir geht es um interne Weiterleitungen von/an Netcup-Konten. Gerade habe ich eine Email vom Support erhalten, dass sie die Störung beseitigt haben. Leider wurden bisher die Emails von gestern noch nicht zugestellt. Von sonstigen Störungen kenne ich das, dass Emails in einer Schlange stecken. Bisher aber noch nichts.


    Ich werde mal im Laufe des Tages testen, ob aktuell Mails ankommen.

    Hallo zusammen, seit ca. gestern bekomme ich im Webhosting keine Emails mehr zugestellt. Ich habe dem Support über das CCP geschrieben, aber noch keine Antwort erhalten. Das Emailkonto für den Kontakt sollte aber gehen. Ich nutze eine Emailadresse dafür, die nicht bei Netcup gehostet ist. 8)


    Gibt es sonst jemand mit Problemen? Vielleicht werden ja Emails an den Support auch nicht zugestellt? :/


    *oder mir schreibe niemand. :-P Allerdings habe ich ein paar Test-Emails von anderen Providern geschrieben, die auch nicht auftauchen.

    Der Haftung / Störerhaftung kann man sich als private Person die einen TOR-Exitnode betreibt meiner Meinung nach nicht wirklich entziehen, wenn über den Exitnode eine Straftat verübt wird. Ich habe hier wirklich schon Existenzen kaputt gehen sehen.

    Wow!


    Ich hatte über die Jahre immer mal wieder überlegt, ob und wie ich mich an der Tor- oder auch Freenet- (ähnlich wie Tor) Infrastruktur beteilige. Dabei hatte ich auch ernsthaft überlegt ein Exitnode zu betreiben, jedoch immer etwas Angst vor den Folgen.


    Dass diese dermaßen hart sein können und offenbar weit über die Beschlagnahmung der Server im RZ hinausgehen hatte ich zwar auch schon gedacht (Durchsuchung zu Hause incl. Beschlagnahmung aller Rechner und Smartphones hatte ich auch als Folge in Erwägung gezogen) und deshalb bisher davon Abstand genommen.


    Allerdings hatte ich bisher keine Bestätgung, dass das so vorkommt. Und auch nicht die weiteren Folgen (Existenzvernichtung, durch Kipo-Vorwürfe und/oder Vernichtung der Arbeitsgrundlage durch Beschlagnahmung von Computern und Datenverlust) bedacht. Das kann man nicht laut genug sagen.

    Ich erhalte exakt das gleiche Ergebnis wenn ich nach dem Vorschlag von Hecke29 vorgehe. Selbst eine direkte Nachricht an die catchall Adresse schlägt fehl :-/


    Hat das hier schon jemand hinbekommen?

    Dann bring ich auch mal ein Update. Hier funktioniert auch alles. Ich vermute ebenfalls mangelnde Geduld.

    Im CCP kann man in der Domainverwaltung seine Domains frei einem Webhostingkonto zuordnen. Ich bin mir nicht sicher, dachte aber, das wäre früher so gewesen, dass man dort auch Inclusivdomains mit einem anderen Webhosting-Paket nutzen konnte. Aber da bin ich mir nicht sicher.


    Jetzt habe ich ein mir ein fettes Webhostingpaket gegönnt (Webhosting 8000) und wollte eine Seite von mir umziehen. Das geht aber nicht, weil die Domain anscheinend als Inclusivdomain an meinem anderen (alten) Webhostingvertrag klebt. Naja. Da ich ganze 12 externe Domains bei Webhosting 8000 habe, dachte ich, dass das kein Problem wäre. Ich könnte sie ja einfach als externe Domain führen. Das geht aber scheinbar nicht. Gibt es da eine Möglichkeit das vielleicht zu ändern?


    Nochmal was ich will: Ich will nicht Inclusivdomains vertraglich verschieben, sondern lediglich Domains, die ich habe, in einem anderen Hosting, mit besseren Leistungsdaten, betreiben. Auch gerne als externe Domains mit der im Vertrag bestehenden Obergrenze von 12.

    Ich habe Glück gehabt und einen vergleichsweise sehr guten Aktionstarif ergattern können. Neben den vielen Domains und dem vielen Speicher sind die guten PHP-Werte natürlich klasse. Hohes Memory Limit, Hohes Upload-Limit, lange Execution-Time. Alles zu einem vergleichsweise sehr günstigen Preis.


    Im beschriebenen Soft-Upgrade wird mir derzeit nur ein Tarif angeboten, welcher einige Verbesserungen bietet (mehr Domains), aber auch Verschlechterungen. Zum Beispiel ein PHP-Upload-Limit, was nur noch 1/8 so groß ist wie vorher. Zudem ist der neue Preis fast doppelt so hoch.


    Ich warte auch gerne auf die harte Migration, zumal ich Email recht intensiv nutze und in der Soft-Migration nichts dazu steht (ich hoffe, dass bei der Hard-Migration die Email-Konten automatisch übernommen werden). Bleiben bei der harten Migration der Preis und die Leistung stabil?

    Sehr skurril hier die Vorwürfe gegen Netcup. Darf ich daran erinnern, dass es sich hier um ein privates Unternehmen handelt, welches, im Rahmen der gesetzlichen Bestimmungen, Hausrecht hat? Hier gibt es keine "Gerechtigkeit" oder "Recht". Hier gilt, was der Hausherr sagt und tut. Punktaus.


    Allerdings muss ich auch zugeben, dass ich ob der Gleichstellung von Mining und Botnetzen und der damit verbundenen soforting Abschaltung ebenfalls etwas überrascht bin. Sollte ein unbedarfter Admin auf einem anderweitig genutzten Server zusätzlich einen Mining-Client laufen lassen, könnte das tatsächlich ungemütlich sein. Da aber seitens Netcup beschrieben wurde, wie vielfach ausschließlich für Mining-Zwecke Server angemietet wurden (und dann der kostenlose Zeitraum ausgenutzt wurde), könnte es durchaus sein, dass diese Abschaltung bei weitem nicht in allen Fällen zur Anwendung kam.


    Ganz nebenher bin ich überrascht, dass überhaupt jemand im Jahr 2017 oder 2018 noch Mining auf x86 bzw. x64 probiert. Ist das nicht völlig schwachsinnig? An die derzeitigen "Marktpreise" glaube ich ebenfalls nicht. Der Markt ist doch völlig unreguliert. Das heißt viele Dinge, die auf anderen, regulierten Märkten illegal wären, sind auf völlig unregulierten internationalen Märkten sogar legal. Wie zum Beispiel diverse Methoden zur Kursmanipulation, die wohl sehr intensiv betrieben werden. Davon profitieren die großen, intelligenten Marktteilnehmer auf Kosten der dummen Kleinen, die derzeit in Massen geschröpft werden.


    Und nebenher gibt es Kollateralschaden bei Hostern wie Netcup, wenn es zu Zahlungsausfällen und geplantem massenhaften Ausnutzen von Zufriedenheitsgarantien u.ä. kommt. Amazon würde sicher auch ziemlich sauer sein, wenn jemand zig Grafikkarten bestellt, damit 1-2 Wochen Mining betreibt und sie dann innerhalb der Rücksendefrist wieder zurückschickt. Bitte dies nicht als Aufforderung verstehen. Denn Leute, die auf solche Ideen kommen gehören garantiert zur letzteren, im oberen Absatz beschriebenen Gruppe.

    Theoretisch ist der Angriffsvektor da.

    Den gibt es immer. Hinreichend komplexe Systeme verfügen immer über Sicherheitslücken. Einige davon sind garantiert einfacher auszunutzen als Spectre, für das eine Implementierung wohl als verdammt schwierig gilt. Meltdown betrifft KVM wohl nicht.


    Wenn meine VM jetzt Daten verarbeitet (Adressen, Mailadressen, Kontodaten, Nutzerzugänge, Betriebsvorgänge) und du könntest mitlesen

    Kann ich nicht. Weil es für Spectre keine Implementierung gibt. Und da diese als sehr schwer gilt, wird das wohl auch noch eine Weile so bleiben. Nicht, dass man nicht patchen sollte. Das übrigens nicht nur einmal, da es heißt, dass wohl noch nicht alles im grünen Bereich ist.

    Zu Spectre und Meltdown


    Erstmal vielen Dank [netcup] Felix , dass er sich hier so engagiert und uns beruhigt und Updates bringt und vielen herzlichen Dank @Netcup-Team, dass sie so hart arbeiten um unsere Systeme sicher zu halten.


    Ich bin bei dem ganzen Thema allerdings etwas anderer Meinung als felix . Zum einen bin ich nicht sicher, ob das alles so dringend sein muss, da noch niemand von Implementierungen spricht, die die Lücke nutzen. Gepatcht werden muss natürlich zeitnah, was ich aber als "Wochen" und nicht als "Tage" auffasse. Ich werde meine Server sicher diese Woche noch patchen, mache mir deshalb aber keine schlaflosen Nächte. Zum anderen gehe ich, aufgrund der Natur der Probleme, schon davon aus, dass es, statistisch gesehen, zu prozentual zweistelligen Leistungseinbußen kommt. Ob diese "spürbar" sind, steht auf einem anderen Blatt. Allerdings bin ich kein Experte. [netcup] Felix weiß eher wovon er redet als ich.


    Meine Links zu dem Thema. Einmal eine einfache Erklärung (englisch):


    https://ds9a.nl/articles/posts/spectre-meltdown/


    Und dann ein paar Kommentare aus einem Interview mit Theo de Raadt (OpenBSD):


    https://www.itwire.com/securit…d-openbsd-s-de-raadt.html


    Theo ist, genau wie viele andere aus der Community, ziemlich ungehalten darüber, wie Intel und Google mit dem Problem umgehen. Auch wenn Netcup das hier bravourös managt, wird uns diese Geschichte noch eine ganze Weile beschäftigen.

    Ich habe gerade das gleiche Problem damit gelöst. :-) Danke auch an KORN3Y

    Im Plesk with Coppermine Version 1.5.42 angeboten.


    Auf der Webseite von Coppermine ( http://coppermine-gallery.net/ ) steht das hier:



    cpg1.5.46 Security release - upgrade mandatory!


    + 15 February 2017

    The Coppermine development team is releasing a security update for Coppermine in order to counter recently discovered vulnerabilities. It is important that all users who run version cpg1.5.44 or older update to this latest version as soon as possible.

    Gilt das nur für die aktuellen Webhosting-Verträge? Ich kann dunkel an eine andere Regelung erinnern, nach der man Inklusiv-Domains nur einmal nutzen kann. Wenn eine gekündigt oder wegportiert wird, kann man deshalb keine weitere kostenlos nutzen. Diese Regelung, nach der man "Slots" hätte, wäre mir neu.


    Wird das auf alle Verträge angewandt? Also auch die Altverträge? Gibt es Ausnahmen? Und was ist mit Idioten, die das Ausnutzen würden um jede Woche alte Domains zu kündigen und neue zu buchen? Da muss es doch auch ein Limit geben.