Posts by msty

    Hallo zusammen,


    weil ich Noob bin, habe ich heute viel, viel zu lange gebraucht, um eine einfache Node.js-Anwendung zu installieren. Dabei geht das total einfach und schnell. Man muss nur die Anleitung finden:


    https://www.plesk.com/blog/pro…ology/node-js-plesk-onyx/


    Und genau so habe ich es dann in weniger als 20 Minuten geschafft.


    1. Ich habe direkt von Git gezogen. Dafür gibt es im Plesk ein Modul. Drauf geklickt, einfach die URL vom Git-Projekt kopiert und .git angehängt. Und fertig. Für Ethercalc wäre es die hier:


    https://github.com/audreyt/ethercalc


    Und mit .git sieht sie so aus:


    https://github.com/audreyt/ethercalc.git


    Man kann bestimmt auch ein Node.js in den Webspace kopieren und entpacken.


    2. Danach muss man den Dokumentenstamm ändern, weil die Node.js-Anwendung einen Ordner drüber liegt. Wenn man also die Seite z.B. auf /httpdocs/ hatte, dann braucht man /httpdocs/public und ändert den Dokumentenstamm dahingehend. Node.js verbleibt in /httpdocs. Welche Ordner das sind, ist egal. Hauptsache, der Dokumentenstamm ist ein Ordner in dem Ordner, wo die Node.js-Anwendung liegt.


    3. Dann muss man nur noch node.js aktivieren. Das geht im Plesk unter dem Menüpunkt node.js


    fertig.


    3. b) Für EtherCalc braucht ich noch ein paar Abhängigkeiten. Dafür musste ich noch auf den Button "NPM install" klicken. Und fertig. Node.js steht.


    4. (optional) Weil EtherCalc keine Benutzerverwaltung kennt, brauchte ich noch einen Passwortschutz. Vorher hatte ich Letsencrypt noch aktiviert, damit alles verschlüsselt abläuft. In das Applikationsverzeichnis habe ich also .htaccess und .htpasswd kopiert. .htpasswd muss man sich generieren lassen, weil das Passwort gehasht abgelegt wird. Wer da mit der Hand ein Passwort einfügt, kann sich nicht einloggen.


    Code
    1. RewriteEngine On
    2. RewriteCond %{HTTPS} off
    3. RewriteRule (.*) https://%{HTTP_HOST}%{REQUEST_URI} [R=301,L]
    4. AuthType Basic
    5. AuthName "Password Required"
    6. AuthUserFile '/var/www/vhosts/HOSTING-KONTO-NAME-URL-ÄNDERE-MICH/httpdocs/DOKUMENTENSTAMM-ÄNDERE-MICH/.htpasswd'
    7. Require valid-user


    In der .htpasswd steht nur noch Benutzername:GehashtesPasswort. Sonst nix. Und die liegt im gleichen Verzeichnis wie die .htaccess, die ich oben habe. Der erste Block sorgt dafür, dass Zugriffe immer auf SSL umgeleitet werden.

    Ich hatte mir Concrete5 und Tiki-Wiki genauer angeschaut.


    Tiki-Wiki wird von Plesk in der Version 10.2 angeboten. Ein kurzer Blick auf die Release-Seite von Tiki zeigt diese Version gar nicht mehr an:


    https://tiki.org/Versions


    Das heißt 10.2 ist längst EOL. Inzwischen sind zahlreiche Versionen mit Sicherheitspatches erschienen. Wie gravierend die reparierten Lücken sind, kann ich nicht sagen. Dafür kenne ich das Projekt nicht. Dafür müsste dann Plesk verantwortlich sein. Vielleicht ist auch keine gravierend genug, dass ein Angriff von außen möglich ist. Das halte ich allerdings bei einem so großen Projekt für unwahrscheinlich.


    Hier ist ein Blick in die Geschichte von Tiki:


    https://tiki.org/All-Releases


    10.2 ist demnach von März 2013, also über 4,5 Jahre alt.


    Die andere Anwendung, die ich mir angeschaut hatte ist concrete5. Von Plesk wird 7.3.1 angeboten. Hier ist eine Übersicht der Releases von concrete5:


    https://documentation.concrete…ackground/version-history


    Die aktuelle Version ist 8.2.1.


    7.3.1 kam im Januar 2015:


    https://www.concrete5.org/abou…te5-5-7-3-1-now-available


    Alles in allem finde ich das wenig vertrauenserweckend. Überall, wo ich kurz reingeschaut habe, hinken die angebotenen Versionen dem Upstream weit hinterher. Das hier sind nur zwei Projekte, die ich mir genauer angeschaut habe. Bei Tiki-Wiki hätte ich z.B. die eingebaute Tabellenkalkulation genutzt. Aber so habe ich dann doch lieber EtherCalc über node.js installiert.

    Hallo zusammen,


    ich finde die Funktion, seine Webanwendungen automatisiert upzudaten sehr interessant. Ich weiß, dass man damit vorsichtig sein sollte und es natürlich zu Problemen kommen kann. Aber für kleine "Nebenher-Projekte" würde ich das schon gerne machen.


    Hat das hier überhaupt mal jemand erfolgreich ausprobiert? Denn ich habe das zwar auch gemacht, aber Plesk Onyx kann ja gar nicht automatisch updaten, wenn gar keine neuen Versionen herausgebracht werden. Bei einem Marktbegleiter von netcup kann ich einen Softacoulus-Installer nutzen. Dort werden die Anwendungen geupdatet.


    Im alten netcup Webhostingcontrolpanel.de habe ich eine dokuwiki-Installation gemacht, in der ich mir Notizen zu VServer-Konfigurationen mache. Dort habe ich auch "Automatische Updates" aktiviert. Aber seitdem hat sich bei Plesk nichts getan. Die installierte Version von damals (dokuwiki 20140929) ist auch im neuen Plesk Onyx die aktuelle dokuwiki-Version.


    Wie sieht das mit der Sicherheit aus? Es gibt auf jeden Fall schon bekannte Lücken in den alten Versionen, die aktuell noch von Plesk Onyx zur Installation angeboten werden. Was soll das überhaupt mit den automatischen Updates, wenn keine neuen Versionen nachgeladen werden?


    Gruß,


    Malte

    Danke René. Wegen Deiner Liste probiere ich es jetzt einfach mal mit dem großen Hostingpaket.

    Weiß eigentlich jemand was zu den angeforderten PHP-Modulen für SuiteCRM oben? JSON und XML werden ja dabei sein, aber was ist z.B. mit cURL? IMAP brauche ich auf jeden Fall. Gibt es eine Liste mit Modulen, die im Webhosting verfügbar sind?

    In diesem Fall würde ich aber doch zu einem vServer raten. Speziell zu einem "Root" RS Server mit SSD.

    Machen wir doch mal den Vergleich: RS 1000 G7 SE und RS 2000 G7 SE sowie Webhosting 4000 und Webhosting 8000 liegen alle zusammen preislich zwischen 6 und 16 Euro. Wobei die RS erheblich teurer im Unterhalt sind, weil ja noch ein Admin bezahlt werden muss (ich). Sind die RS wirklich sooooo viel schneller? Netcup wird doch bei den Webhosting-Angeboten schon tricksen mit SSD-Caching usw. oder nicht?


    Hat mal jemand ein paar aufwendigere PHP-Anwendungen zwischen RS und den neuen Webhosting-Angeboten verglichen? Zum Beispiel Nextcloud?

    Hallo zusammen,


    ich traue mir durchaus zu einen VServer aufzusetzen (ich betreibe ein paar)8) und der Preis ist auch keine große Sache, aber ich würde gerne Webhosting nutzen, wo es geht. Aufwand ist geringer, Verfügbarkeit und Sicherheit ist höher. Es geht um SuiteCRM (ein Fork der Community Edition von SugarCRM). Die Geschwindigkeit ist mir auch ziemlich wichtig. Hier sind die Anforderungen:


    https://suitecrm.com/wiki/inde…stallation_pre-requisites


    • PHP
    • JSON
    • XML Parsing
    • MB Strings Module
    • Writable SugarCRM Configuration File (config.php)
    • Writeable Custom Directory
    • Writable Modules Sub-Directories and Files
    • Writable Upload Directory
    • Writable Data Sub-Directories
    • Writable Cache Sub-Directories
    • PHP Memory Limit (at least 128M)
    • ZLIB Compression Module
    • ZIP Handling Module
    • PCRE Library
    • IMAP Module
    • cURL Module
    • Upload File Size
    • Sprite Support


    Eure Meinung würde mich interessieren. Sehr gerne auch vom Netcup-Support (ich hätte auch eine Support-Anfrage geschrieben, aber vielleicht ist die Antwort auch für andere interessant, deshalb Forum).


    Danke für's Lesen. :)

    Hallo, ich habe einen Root-Server M SSD v6. Es sieht für mich aus, als wenn da ein Snapshot enthalten wäre. Wenn ich im Servercontrolpanel steht unter "Snapshots" allerdings folgende Meldung:


    Quote

    Der minimal notwendige Speicherplatz zur Erstellung eines Snapshots wurde unterschritten, daher kann kein weiteres Abbild angelegt werden. Damit Sie einen Snapshot anlegen können, muss die Größe des freien Speicherplates ebenso groß wie der durch Ihre Daten belegte Speicherplatz, oder größer, sein. In machen Fällen ist eine Defragmentierung notwendig um Speicher freizugeben.

    Kann ich nur Snapshots machen, wenn ich weniger als 50% von meinem Laufwerk nutze? Oder hängt das damit zusammen, dass ich btrfs als Dateisystem verwende? Oder habe ich doch keinen kostenlosen Snapshot dabei?


    Ich dachte "1 Snapshot" würde bedeuten, dass ich immer einen machen und aufbewahren darf. Also wenn ich einen neuen mache, der alte gelöscht wird.

    Ich weiß zwar nicht, wie aussagekräftig diese Benchmarks mit hdparm sind, aber ich finde den Vergleich interessant, rate aber zur Vorsicht, was die Vergleichbarkeit und Anwendbarkeit angeht.


    Root-Server M SSD v6

    Code
    1. hdparm -tT /dev/sda1
    2. /dev/sda1:
    3. Timing cached reads: 16926 MB in 2.00 seconds = 8471.61 MB/sec
    4. Timing buffered disk reads: 104 MB in 3.14 seconds = 33.15 MB/sec


    Ich verwende den SCSI-Treiber, weil dieser "empfohlen" wird. Vorher hatte ich aus Angewohnheit den virtio-Treiber genommen. Allerdings ist das hier ein Profi-Betrieb. Auch für SCSI gibt es sehr effiziente Virtualisierung, glaube ich gelesen zu haben. Kann mal jemand von Netcup was dazu sagen? Es kann ja sein, dass vielleicht SCSI weniger wegen der besseren Performance, sondern eher wegen dem höheren Support-Aufwand bei virtio empfohlen wird.


    Mein System "fühlt" sich auch langsamer an, als zum Anfang meiner Nutzung. Ich habe auf dem Server aber keine Anwendungen, die besonders auf hohe IO bei den Platten angewiesen sind. Das normale Linux Festplatten-Caching im Ram (immerhin 6 GB) reicht bei mir, glaube ich, aus. 33MB/s hört sich vielleicht wenig an, dabei darf man aber nicht vergessen, dass das eine SSD ist. Solange ich keine große Dateien übertragen möchte, hat jedes Bit, egal wo es auf der Platte liegt, die gleiche Geschwindigkeit. Wenn ich aber große Dateien übertrage, zum Beispiel wenn ich Updates mache, dann merke ich das. Deshalb habe ich ja oben geschrieben, dass die Performance merklich zurückgegangen ist.

    Meine letzten Antworten wurden entweder noch nicht freigeschaltet, oder kamen nicht durch.
    Wenn ich das recht lese müsste LXD mehr overhead produzieren, da in dessen containern vollwertige OS virtualisiert werden.
    Wenn ich mehrere Container mit ähnlichen Aufgaben anlegen würde, also z.B. wordpress und owncloud trennen mag, dann habe ich pro container vollwertige virtuelle Maschinen die ihre Ressourcen nicht teilen.


    Das Layer Konzept von Docker würde dies z.B. besser machen. Daher ist mehr der Vorteil von LXD für Einzelserver noch nicht ganz klar.


    Ich sehe bei Docker die Verlockung, komplett auf images auf dem hub zu setzen und damit die Sicherheit und Integrität der Appliances in die Hände von Dritten zu geben, die die images pflegen, oder dann einfach irgendwann aufhören.


    Danke für eure Tips auf jeden Fall. Ich denke ich lese mich weiter in Docker ein bevor ich loslege. Wenn ich zu schnell fertige images nutzen, mülle ich mir nur wieder das System zu und baue nix eigenes :)


    Docker ist m.E. eher ein Werkzeug für Entwickler, die damit ihre Anwendungen unter die Leute bringen, bzw. selbst anwenden können. Zum Beispiel große Hoster, die selbst entwickeln, bzw. kompilieren. So habe ich Docker jedenfalls verstanden. Denn wie Du schon schreibst, sind die Quellen für Docker-Container zum Herunterladen eher Zweifelhaft. Eine wichtige Komponente von Linux sind ja gerade die Repositories. Nicht nur die der Distributionen. NGNIX biete z.B. Repos mit aktuellen Binaries für sehr viele Distros an. Bietet NGINX auch Docker-Container?


    LXD ist wie Virtuozzo, bloß aktuell und mit Mainline-Kerneln. Du hast nach wie vor mit normalen Distributionen zu tun, aus deren Repos Du die Software beziehst. Es gibt zwar Images, die man sich auch zieht, die aber nur die Erstinstallation vereinfachen. Danach pflegt man die Gäste wie den Server.


    Docker ist ein prima Werkzeug. Sich damit auszukennen schadet auf jeden Fall nicht. Aber wenn man kein Entwickler ist, dann eignet sich lxd/lxc (gibt es auch von Proxmox) m.E. erheblich besser für kleine Deployments als Docker. Aber das ist auch Geschmackssache. Ich verlasse mich gerne auf die klassischen Distributionen. Ich kenne mich mit der Docker-Community auch nicht so gut aus. Vielleicht werde ich auch einfach nur alt. :P

    Für alles kleineren Einsätze (z.B. privat) würde ich von Docker-Containern abraten, weil diese Art von Containern gar nicht geupdatet werden sollte. Die Idee hinter diesen Container ist, dass sie jedes Mal komplett ersetzt werden sollten. Also nicht in dem Container ein "yum update", sondern von außerhalb ein neues Image holen und das alte ersetzen.


    Für den privaten Einsatz habe ich lxd-Container im Einsatz. Das sind volle Betriebssysteme ohne Kernel. Also wie Virtuozzo, bloß mit Standard-Kernel. Die Einrichtung habe ich hier beschrieben:


    Netzwerk für Container LXD / OpenVZ mit eigener IP auf Netcup Root Server KVM

    Sagt mal...

    Man kann nicht vorab DNS Einträge zu einer Domain hier anlegen, die noch nicht hier ist, richtig?


    Das ist etwas schade, würde es doch unter Umständen etwas Stress ersparen.


    Man kann ja auch schreiben, dass die Zone inaktiv bleibt, bis die Domain hergezogen ist und nach X Tagen gelöscht wird, wenn kein Umzug erfolgt...
    Da ja am Resellerfeature für Domains gearbeitet wird, wäre das etwas, was man gleich in dem Projekt mit implementieren könnte.

    Den Spaß hatte ich vor Jahren mal bei Hosteurope. Die hatten so ein Webinterface namens "KIS" für die Verwaltung der Domains. Wir waren deshalb bei Hosteurope, weil sie ohne Probleme auch für kleine Konten die Zahlung auf Rechnung angeboten haben. Ein guter Grund das nicht zu machen waren wir auch. Das Schrottunternehmen, für das ich damals gearbeitet habe, hat sowieso erst nach Mahnung gezahlt. Jedenfalls war KIS ein Grund da nicht hinzugehen. Ich habe über die Jahre nie kapiert, wie man zu den Einstellungen für die Records kommt. Ich musste immer so 5 Minuten herumklicken.


    Deshalb habe ich beim Transfer der Domains vom Webhoster (der gar keine Veränderungen der Records anbot) hin zu Hosteurope Rotz und Wasser geschwitzt. Zumal ich noch wenig Erfahrung hatte. Schlau wie ich damals war habe ich den Transfer initiiert und dann vorab alle Einstellungen hinterlassen. Und mindestens 3x geprüft ob alles richtig war.


    Und dann bekamen wir keine Emails mehr. Und die Webseite funktionierte auch nicht. Ich fummelte mich bei KIS rein und alles was ich eingestellt habe war weg. In Panik rief ich den Hosteurope-Support an. Der meinte, dass aus Sicherheits- und Komfort-Gründen alle DNS-Einstellungen bei einem Transfer gelöscht werden.


    ...


    ...


    ...


    Ich wusste nicht, was ich dazu sagen sollte. Während mich der Chef buchstäblich im Nacken saß und fragte, wo seine Emails wären.

    Wenn Du mit Deinem Kenntnisstand weiter versuchst Mainchat auf einem Root-Server zu installieren und zu betreiben, dann willst Du mit dem Kopf durch die Wand. Allerdings will ich Dich nicht vollständig demotivieren. Denn so lernt man am Besten Dinge am Computer. Man probiert ein Ziel zu erreichen. Etwas zum Laufen zu bekommen. Denn am Computer geht alles. Theoretisch. Jedoch ist diese Aufgabe m.E. bei Deinem aktuellen Wissensstand mit viel zu viel Frust verbunden. Wie groß ist Deine Frusttoleranz? Und Dein Zeitbudget? Denn ich sehe mindestens 2 Monate allabendliche Sitzungen voraus. Ohne viel Erfolg bis zum Schluss.


    Meine Vorschläge für Alternativen:


    1. Du willst eher was über Linux und Root-Server lernen:
    Dann behalte den Root-Server und probiere erstmal darauf einen Standard-Webserver einzurichten. Danach kannst Du mittelst PHP auch irgendwann eine Chat-Anwendung installieren. Empfehlen würde ich Dir nicht Suse, sondern Debian oder Ubuntu. Da gibt es viel mehr Dokumentation zu. Und wenn Du es einfach willst, dann kannst Du auch Froxlor nehmen. Das nimmst Dir viel ab. Das ist so eine Konfigurationsoberfläche.


    2. Du willst schnell chatten:
    Dann kündige den Root-Server und nimm Dir ein Webhosting-Angebot:
    https://www.netcup.de/hosting/#vergleich
    Dort gibt es das Applikation-Hosting:
    netcup.de - Applikation-Hosting - Softwareinstallation und Pflege per Mausklick


    Dort kannst Du Dir phpbb installieren lassen. Perfekt für Anfänger. Und dann gibt es für phpbb Chat-Anwendungen. Das zu installieren ist auch nicht ohne. Aber Mainchat ist genau das gleiche. Nur fallen bei diesem Weg Root-Server-Konfiguration, Webserver-Konfiguration und PHP-Installation weg. Das ist viel. Übrig bleibt die Beschäftigung mit PHP. Das ist, denke ich, für den Anfang genug. Und mit PHP lernst Du auch viel Sinnvolles. Und es gibt das Erfolgserlebnis innerhalb von einer Woche, wenn Du Dich ran hältst. Das ist überschaubar.

    Hallo,


    ich benutze seit kurzem LXD Container und bin soweit sehr, sehr zufrieden. Die Dokumentation (english) ist hervorragend und die Kommandozeilenbedienung IMHO sehr einfach. Bei Netcup habe ich einen Root-Server (KVM) und eine zusätzliche IPv4 nur für den Container bestellt. Da LXD derzeit am besten unter Ubuntu 15.10 Wily läuft (lxd-stable repo einbinden nicht vergessen), musste ich noch ein Wily-Image hochladen. Nachdem ich im VCP die IPv4 dem Server zugeordnet habe, bin ich einfach dieser Anleitung hier gefolgt:


    KVM mit Nutzung aller IPs - the easy way – Hetzner DokuWiki


    Ich bin der Anleitung nicht direkt gefolgt. Statt zusätzlich eine Bridge anzulegen, habe ich das Netzwer-Interface auf dem Host durch die Bridge ersetzt, also iface ens3 usw auskommentiert. Die Anleitung kann man trotzdem so umsetzen. Ich habe statt einem statischen Setup für den Host DHCP genommen. Da funktioniert auch mit der Bridge. Außer: Weil ich kein anderes interface mehr habe, habe ich auf dem Host statt "bridge_ports none" lieber "bridge_ports ens3" angegeben. Da sollte man sich daran halten, welche Schnittstelle, also z.B. eth0, ens3, usw. vorher dort eingetragen ist.


    "The easy way" stimmt. Ich persönlich finde LXD viel einfacher als KVM, weil man sich um noch weniger kümmern muss. Die Container können eigene Firewalls laufen lassen. Man muss nur die entsprechenden Module (iptables, z.B.) auf dem Host laden, weil die Container selbst keine Module nachladen dürfen. Und so kann man Container bequem mit eigener IPv4 als vollständige Server laufen lassen.


    Für den LXD-Container muss man noch ein Profil anlegen, damit der Container sich an die neue Bridge hängt. Im default-Profil hängt sich LXD an lxbr0 und bekommt eine 10.0.3.x zugeteilt.


    Hier noch ein paar Links zu LXD:


    Linux Containers - LXD - Getting started - command line


    lxd/image-handling.md at master · lxc/lxd · GitHub


    lxd/command-line-user-experience.md at master · lxc/lxd · GitHub


    lxd/configuration.md at master · lxc/lxd · GitHub


    Es sieht schwerer aus, als es ist. Es gibt ganz wenig zu konfigurieren.


    So sieht meine /etc/network/interfaces auf dem wily Host aus:


    # This file describes the network interfaces available on your system
    # and how to activate them. For more information, see interfaces(5).


    source /etc/network/interfaces.d/*


    # The loopback network interface
    auto lo
    iface lo inet loopback


    # The primary network interface
    #auto ens3
    #iface ens3 inet dhcp


    auto br0
    iface br0 inet dhcp
    bridge_ports ens3
    bridge_stp off
    bridge_fd 0
    bridge_maxwait 0
    up route add -host 37.120.x.x/32 dev br0


    Das habe ich bei meiner /etc/sysctl.conf auf dem wily Host hinzugefügt (Anmerkug: ipv6-Setup fehlt noch woanders, ist aber hier schon hinterlegt):


    net.ipv4.ip_forward=1
    net.ipv6.conf.all.forwarding= 1
    net.ipv6.conf.br0.forwarding = 1
    net.ipv6.conf.default.forwarding = 1
    net.ipv4.conf.all.send_redirects = 0


    Testweise habe ich als Gast ebenfalls Ubuntu 15.10 Wily angelegt. Es laufen aber auch Debian und CentOS problemlos.


    Mein /etc/network/interfaces auf dem Gast:


    # This file describes the network interfaces available on your system
    # and how to activate them. For more information, see interfaces(5).


    # The loopback network interface
    auto lo
    iface lo inet loopback


    #auto eth0
    #iface eth0 inet dhcp


    auto eth0
    iface eth0 inet static
    address 37.120.x.x
    netmask 255.255.255.255
    # gateway und pointopeoint sind die address vom Host oben
    gateway 37.120.x.x
    pointopoint 37.120.x.x
    dns-nameservers 46.38.225.230 8.8.8.8


    Das Gast-Profil habe ich so angelegt:


    lxc profile create GUEST


    lxc profile edit GUEST


    ### This is a yaml representation of the profile.
    ### Any line starting with a '# will be ignored.
    ###
    ### A profile consists of a set of configuration items followed by a set of
    ### devices.
    ###
    ### An example would look like:
    ### name: onenic
    ### config:
    ### raw.lxc: lxc.aa_profile=unconfined
    ### devices:
    ### eth0:
    ### nictype: bridged
    ### parent: lxcbr0
    ### type: nic
    ###
    ### Note that the name is shown but cannot be changed


    name: GUEST
    config: {}
    devices:
    eth0:
    nictype: bridged
    parent: br0
    # 'parent' ist hier der Name der
    # Bridge aus /etc/network/interfaces vom Host
    type: nic


    Ich denke, dass LXD mit Ubuntu 16.04 Xenial Xerus starke Verbreitung finden wird. Die o.g. Anleitung sollte auch für xenial funktionieren.


    Anmerkung: Ich habe bei Netcup mehrfach angefragt und wurde freundlich ermutigt Container auf dem Root-Server anzulegen. :thumbsup: :thumbsup: Seitens Netcup gibt es also keine Einwände. Viel Spaß beim Containern. :D

    Ich wollte das kurz ergänzen. Leider weiß ich nicht mehr genau, was ich gemacht habe, aber im Grunde war es ganz einfach eine ACL-Einstellung im Webinterface selbst. Dort kann man User anlegen und ihnen Rechte zuweisen. Das muss man dann auch machen. Nämlich dem eigenen Konto die Admin-Rechte geben, und/oder einen Admin mit entsprechenden Rechten anlegen.


    Eigentlich total einfach. Nur die Fehlermeldung hatte mich etwas verwirrt.


    Das Thema hat sich erledigt. Es müssen auch keine PHP-Dateien geändert werden, oder so.


    Automatische Updates sind übrigens eine SUPER-Idee!

    Hi,


    ich finde die Applikationen so praktisch. Ganz besonders, wenn sie jetzt von Netcup gepflegt werden (automatische Updates).


    Ich habe ein Webhosting-Standard-Paket und darin dokuwiki als Applikation installiert. Da bekomme ich ständig diese Fehlermeldung:


    Nun bin ich etwas versunsichert. Soll ich selbst auf die Suche gehen und die PHP-Dateien anpassen? Was ist mit den automatischen Updates seitens Netcup? Warum kommt die Fehlermeldung überhaupt? Habe ich was falsch gemacht? Hat Netcup was falsch gemacht? Ich würde das sehr gerne so behalten, dass Netcup sich um Updates kümmert und ich das Wiki nur bequem nutzen kann. Ohne mir über Sicherheitlücken einen Kopf machen zu müssen. :P


    Etwas habe ich ja schon anders gemacht. Ich habe die App in einer Subdomain installiert. Und zwar wiki.domain.de Nicht direkt bei domain.de Aber das ging alles problemlos.