Wie kann mysql insert Millionen Datensätze schneller?

Wollte ich einfügen über Millionen Datensätze in meiner Datenbank, aber es ging sehr langsam, mit einer Geschwindigkeit von rund 40.000 Datensätze/Stunde, denke ich nicht, dass meine hardware zu langsam ist, weil ich sah, wie diskio ist unter 2 MB/s. Ich habe viele Tabellen, die getrennt in verschiedenen .sql-Dateien. Ein einzelner Datensatz ist auch sehr einfach, ein Datensatz ist weniger als 15 Spalten und eine Spalte weniger als 30 Zeichen. Ich habe diesen job unter archlinux mit mysql 5.3. Habt Ihr irgendwelche Ideen? Oder ist diese Geschwindigkeit nicht langsam?

Sie sollten in der Lage sein zu laden 40k Zeilen pro minute. Wie Sie den import der Datensätze?
Was ist der Engpass? Wie sind Sie mit dem einfügen der Datensätze? Können Sie dieses Profil in irgendeiner Weise zu bestimmen, welcher Teil ist für eine lange Zeit?
Sie können auch vorbereitete Anweisungen, wenn Sie das einfügen durch eine Programmiersprache.
Eigentlich ich gedumpten alle Tabellen aus einer sqlite-Datenbank gespeichert .sql-Dateien. Ich wollte, diese Tabellen zu importieren, um mysql-server mit diesem Befehl: mysql -u Benutzer -p Datenbank < table_name.sql. Diese sql-Dateien so Aussehen: CREATE TABLE T ( ... ); INSERT INTO table1 (field1, field2) VALUES ("data1", "data2"); INSERT INTO table1 (field1, field2) VALUES ("data1", "data2"); ......(Millionen Zeilen)

InformationsquelleAutor Cricket | 2013-10-30

Schreibe einen Kommentar