das hochladen und komprimieren Datei zu s3

Ich habe vor kurzem begonnen arbeiten mit S3 und haben sich über diese Notwendigkeit, um das hochladen und komprimieren große Dateien (10 gb +-) auf s3.
Die aktuelle Umsetzung mit dem ich arbeite, ist das erstellen einer temp-komprimierte Datei lokal und dann hochladen auf s3 und schließlich das löschen der temp-Datei. Die Sache ist, für eine 10 gb Datei, ich habe fast 20 gb lokal gespeichert, bis der upload fertig ist. Ich brauche einen Weg, um die übertragung der Datei zu s3 und dann komprimieren es.
Ist dieser Ansatz tragfähig? Wenn ja,wie soll ich den anderen das? Wenn nicht, gibt es eine Möglichkeit, kann ich das minimieren der lokalen Speicherplatz benötigt?
Ich habe jemanden gesehen, sugesting, dass die Datei konnten hochgeladen werden, S3, heruntergeladen, um eine EC2-in der gleichen region, es komprimiert und dann hochgeladen, zurück zu den S3 beim löschen der ersten Kopie auf S3. Dies könnte funktionieren, aber es scheint mir, dass 2 uploads für geting eine Datei wäre nicht von Vorteil costwise.

Ich habe versucht, laden Sie eine Komprimierung-stream ohne Erfolg, aber ich habe gerade entdeckt, s3 unterstützt keine Komprimierung und streaming jetzt bin ich ratlos wie es weitergehen soll.

Ich bin mit dem gzip-Bibliothek auf .NET

InformationsquelleAutor VmLino | 2014-06-05
Schreibe einen Kommentar