SQL-Datenbank Import Fehler

  • Hallo zusammen,


    im Rahmen der Migration auf die neue netcup Cloud bin ich gerade dabei meine Datenbanken umzuziehen, bzw. hatte ich das vor.


    Zunächst die alten Datenbanken per phpMyAdmin als SQL exportiert und nun versucht, diese in die neu angelegten Datenbanken zu importieren. Dabei erhalte ich folgende Fehler (und es werden nur 10 von 68 Tabellen hochgeladen):


    phpmyadmin-error.png



    Wenn ich das ganze über das neue WCP versuche, erhalte ich dagegen einen anderen Fehler (egal, ob ich die SQL erst hochlade, oder schon vom Server aus importieren möchte):


    wcp-error.png



    Ich komme hier leider nicht weiter und weiß auch nicht, wie ich das Problem angehen soll.

    Freue mich sehr über jede Hilfe!


    VD

  • Hmm, spannend, im ersten Screenshot ist der MySQL-Server weg,... ist vllt. ein einzelnes SQL-Kommando schuld? Evtl. mal einzelne Tabellen ex-/importieren um den Übeltäter zu finden.

    Im Zweifen Screenshot war das "Paket" zu groß, daher meine Vermutung mit der Dateigröße. Ich habe heute auch die Soft-Migration durchgeführt und war auch nur über die Dateigröße gestolpert, ansonsten hat es aber funktioniert.

  • Der Fehler im 2. Bild: "Got a packet bigger than 'max_allowed_packet' ".

    Wahrscheinlich ist da eine Query zu groß, die an den Server geschickt wird.


    Falls vorhanden: Beim Export der Datenbank die größe/länge der einzelnen Querys anpassen

    Oder: Die exportierte Datei öffnen und manuell die Query zerlegen..

    Meine (Netcup) Produkte: VPS 1000 G7 SE, S 1000 G7, VPS 200 G8 Ostern 2019, IPs, Failover..

  • Ich habe bisher noch nicht die einzelnen Tabellen durchprobiert, lediglich z.B. die ersten 10 gesammelt, da gab es den gleichen Fehler.


    Ich habe aber auch noch andere Datenbanken, die ich umziehen muss und bei denen bisher genau das gleiche...


    Bei dir hat es dann normal funktioniert?

  • Also das Problem scheint nur in einzelnen Tabellen zu stecken, offenbar verursacht durch zu lange Zelleninhalte. Die SQL, die Probleme macht hat z.B. mehrere sehr lange Zeilen, in denen das hier steht:


    Was gibt es für Möglichkeiten, damit ich diese Tabellen trotzdem hochladen kann?

  • Ich habe dieselben Probleme.

    Möchte von meinem aktuellen Hoster umziehen und als erstes Projekt ein Mediawiki beim Umzug aktualisieren.

    Stolpern tut der Import bei den Cachetabellen (die nicht nötig sind), aber auch bei essentiell wichtigen Tabellen.


    Wie komme ich denn da weiter?

    Allzu holprig sollte es nicht sein, bei meinem alten Hoster klappt es ohne Probleme.

  • ThomasChr hat mir schon etwas weitergeholfen durch folgende Methode:

    Quote

    Geh beim exportieren der Daten in phpmyadmin mal auf Exportmethode angepasst und wähle unter Datenerstellungsoptionen ds folgende aus:

    Spaltennamen bei jedem INSERT Schlüsselwort verwenden

    Beispiel: INSERT INTO tbl_name (col_A,col_B,col_C) VALUES (1,2,3)


    Das hat bei einigen Tabellen bei mir funktioniert, leider nicht für alle. Das Problem scheint hier wirklich die Limitierung durch max_allowed_packet auf 1024 zu sein, dadurch können SQLs, die zu lange Zeilen beinhalten nicht hochgeladen werden.


    Der sonst eigentlich sehr gute Support hat inzwischen auch einfach aufgehört auf meine E-Mails zu antworten...

  • Ich habe mal so verfahren wie oben vorgeschlagen, also "Spaltennamen bei jedem INSERT Schlüsselwort verwenden" angehakt und den Export in zwei Teile zerlegt.

    Der eine Teil, in dem nur eine Tabelle fehlt, hat 11MB, der andere Teil mit der fehlenden Tabelle hat 20MB.

    Beim Importd es zweiten Pakets bekomme ich nach 2min36sec im Browser folgende Meldung (siehe Anhang).

    Danach ist der Tab nicht mehr benutzbar und die PHPMyAdmin Sitzung muss neu aus dem CCP aufgerufen werden.

    Der Import über das WCP schlägt wegen max_size_packet fehl.

    import-phpmyadmin.JPG

  • Ich habe nochmal geschaut. Bei meinem aktuellen Hoster steht der Wert für 'max_size_packet' auf 16Mio. Da ich eine MediaWiki Datenbank importieren will, ist der Wert hier zu klein, da die Texte zum großen Teil über 1024 Zeichen lang sind und in einer Import-Zeile stehen. Da lässt sich nichts splitten.

  • Nach weiterem Kontakt mit dem Support hat dieser mir mitgeteilt, dass das Insert-Limit sogar bei 20M liegt und siehe da, nach einem weiteren Eingabe von

    show variables like 'max_allowed_packet' in der SQL-Konsole liefert auch meine Datenbank den Wert 20971520 zurück und mein Import verlief ohne Probleme. Jetzt frage ich mich nur, wo dieser Wert plötzlich herkommt...

    OliverM Versuch doch auch nochmal dein Glück, sonst ggf.den Support kontaktieren.

  • Nach weiterem Kontakt mit dem Support hat dieser mir mitgeteilt, dass das Insert-Limit sogar bei 20M liegt und siehe da, nach einem weiteren Eingabe von

    show variables like 'max_allowed_packet' in der SQL-Konsole liefert auch meine Datenbank den Wert 20971520 zurück und mein Import verlief ohne Probleme. Jetzt frage ich mich nur, wo dieser Wert plötzlich herkommt...

    OliverM Versuch doch auch nochmal dein Glück, sonst ggf.den Support kontaktieren.

    Bei mir steht der Wert jetzt auch höher, Import habe ich gerade getestet und hat auf Anhieb geklappt.

    Perfekt, würde ich mal sagen.