Best practices für die einfügen/Aktualisierung einer großen Menge von Daten in SQL Server 2008

Ich Baue ein system für die Aktualisierung von großen Datenmengen über verschiedene CSV-feeds. Normalerweise würde ich Schleife nur, wenn jede Zeile im feed, führen Sie eine select-Abfrage, um zu überprüfen, ob das Element bereits existiert und insert - /update-ein Element, je nachdem, ob es vorhanden ist oder nicht.

Habe ich das Gefühl diese Methode ist nicht sehr skalierbar und könnte hammer der server, auf größere feeds. Meine Lösung ist eine Schleife durch die Elemente, wie normal, aber speichern Sie Sie im Speicher. Dann für jeden 100 oder so posten ein select-auf diesen 100 Stück und bekommen Sie eine Liste von vorhandenen Einträgen in der Datenbank entsprechen. Dann verketten Sie die insert - /update-Anweisungen zusammen und führen Sie Sie in die Datenbank. Dies würde im wesentlichen zu reduzieren auf die Ausflüge in die Datenbank.

Ist dies eine Lösung, die skalierbar genug und gibt es irgendwelche Beispiel-tutorials auf den Import großer feeds in eine produktive Umgebung?

Dank

InformationsquelleAutor markvpc | 2010-02-26

Schreibe einen Kommentar