Amazon DynamoDB-Mapper - Grenzen zu batch-Operationen

Ich bin versucht zu schreiben, eine große Anzahl von Datensätzen in einer dynamoDB-und ich würde gerne wissen, was ist der richtige Weg, das zu tun. Derzeit bin ich mit der DynamoDBMapper um den job zu erledigen in einem batchWrite Betrieb, aber nach dem Lesen der Dokumentation, ich bin nicht sicher, ob dies der richtige Weg (vor allem wenn es einige Grenzen hinsichtlich der Größe und der Anzahl der geschriebenen Elemente).

Sagen, dass ich eine ArrayList mit 10000 Datensätzen und ich bin speichern Sie es wie folgt:

mapper.batchWrite(recordsToSave, new ArrayList<BillingRecord>());

Das erste argument ist die Liste mit Datensätzen geschrieben werden, und die zweite enthält Elemente, die gelöscht werden soll (ohne solche Elemente, in diesem Fall).

Macht der mapper split dieses schreiben in mehrere schreibt und behandeln die Grenzen, oder sollte es werden explizit behandelt?

Habe ich nur Beispiele mit batchWrite getan mit der AmazonDynamoDB client direkt (wie DIESE ein). Wird mit dem AUFTRAGGEBER direkt für den batch-Operationen, der richtige Weg? Wenn ja, was ist der Punkt, der mit ein mapper?

InformationsquelleAutor Smajl | 2015-06-18
Schreibe einen Kommentar