solaris-ch
Goto Top

MySQL ERROR 2006 (HY000) Server has gone away

Thema: MySql Replikation via Dump File. Eine Binäre Replikation haut nicht so hin wie ich will. Deshalb versuche ich es nun via Dumpfile.

Hallo Freunde.

Ich habe auf MySQL Server A ein DUMP File von einer Datenbank erstellt. Das DUMP File ist (ungepackt) rund 5 GB gross. Das File lade ich nun auf dem Host B mittels

mysql -f -u root -pSECRET < all_dump.sql

in die Datenbank rein.

Leider scheint dies nicht sauber zu klappen. Der Host B meldet nach Zeile 2572 des Import Files folgenden Fehler:

ERROR 2013 (HY000) at line 2572: Lost connection to MySQL server during query
ERROR 2006 (HY000) at line 2573: MySQL server has gone away
ERROR 2006 (HY000) at line 2574: MySQL server has gone away
ERROR 2006 (HY000) at line 2575: MySQL server has gone away
ERROR 2006 (HY000) at line 2576: MySQL server has gone away
ERROR 2006 (HY000) at line 2577: MySQL server has gone away
ERROR 2006 (HY000) at line 2578: MySQL server has gone away
ERROR 2006 (HY000) at line 2579: MySQL server has gone away
ERROR 2006 (HY000) at line 2580: MySQL server has gone away
ERROR 2006 (HY000) at line 2581: MySQL server has gone away
ERROR 2006 (HY000) at line 2582: MySQL server has gone away
ERROR 2006 (HY000) at line 2583: MySQL server has gone away
ERROR 2006 (HY000) at line 2584: MySQL server has gone away


Das zieht sich dann bis zur letzten Zeile hin.
In der ersten Zeile wo der Fehler auftritt steht ein Statement welches an sich ok ist und nicht auf einen Fehler deuten lässt.

Performant sollte Host B auch sein. 16 Kern Xeon, 32 GB RAM, RHEL 5, Glasfaser SAN, etc

In der my.cnf habe ich die maximale Grösse eines Paketes bereits auf 10 GB hochgeschraubt (Auf Host A und Host B).
max_allowed_packet = 10000M

Weiss jemand Rat, dies meine bescheidene Frage... face-wink

Content-Key: 130003

Url: https://administrator.de/contentid/130003

Printed on: April 25, 2024 at 13:04 o'clock

Member: Miyamoto
Miyamoto Nov 23, 2009 at 10:43:43 (UTC)
Goto Top
Hi,
ich hatte auch mal das Problem, bei mir lag es an der anzahl der Zeilen.
Als ich den Dump in mehrere kleinere Dateien aufgeteilt habe ging es Problem los.

Ist zwar keine schöne Lösung aber es hat bei mir geholfen.
Member: solaris-ch
solaris-ch Nov 23, 2009 at 10:47:37 (UTC)
Goto Top
Ok, klingt schonmal gut face-wink. Und wie hast du das bewerkstelligt? Arbeite in einer automatisierten Welt und wüsste auf die Schnelle nicht, wie ich ein Dumpfile automatisch aufteilen soll ohne dass Querys mittendrinn auseinander geschnitten werden. Hast du mir einen Tip?

Beste Grüsse und danke!
Member: Miyamoto
Miyamoto Nov 23, 2009, updated at Oct 18, 2012 at 16:40:03 (UTC)
Goto Top
Ich habe alle 2000 Zeilen einen schnitt gemacht gehabt und die Dateien dann nach und nach importiert.

Zum zerlegen der Datei, schau mal bitte hier
Textdatei mit 300.000 Zeilen splitten
ich hoffe es hilft dir weiter
Member: solaris-ch
solaris-ch Nov 23, 2009 at 12:38:19 (UTC)
Goto Top
Hallo Miyamoto

hmm, ist nicht genau das was ich brauche. Also der Ansatz ist ok und auch auf linux adaptierbar. Aber dennoch sehe ich die Sache als ein wenig anfällig, weil ich das ganze automatisiert machen muss. Ich würde lieber dem eigentlichen Problem auf die Schliche kommen und einen Workaround eher als die "Worst Case" Variante ansehen möchte.

Weitere Ideen?
Member: Miyamoto
Miyamoto Nov 23, 2009 at 13:10:15 (UTC)
Goto Top
Ja ich weiß es ist nicht die Schönste Lösung.

Welche MySQL Version benutzt du den?
Member: solaris-ch
solaris-ch Nov 23, 2009 at 13:17:35 (UTC)
Goto Top
Auf beiden Maschinen zur Zeit 5.1.
Member: Miyamoto
Miyamoto Nov 24, 2009 at 08:38:06 (UTC)
Goto Top
Hi,
mir ist noch eine Möglichkeit eingefallen,
du Kopierst den ganzen "Data" Ordner einfach auf das zweite System, die Variante löst zwar auch nicht 100% dein Problem aber du hast den alle Datenbanken auf dem zweiten System.

Ohne das ein einlese Problem auftaucht.
Member: solaris-ch
solaris-ch Nov 24, 2009 at 08:51:57 (UTC)
Goto Top
Hi miyamoto

das ist genau das was ich nun gemacht habe face-wink wobei ja ein Ordner auch einer Datenbank entspricht, packe ich nur die zu Replizierenden Ordner in das tar.gz Paket.

Das klappt wunderbar. Besten Dank und Gruss!