BigQuery exportieren der Daten in CSV ohne Verwendung von Google Cloud Storage

Ich bin derzeit am schreiben einer software zu exportieren große Mengen von BigQuery-Daten und speichern der abgefragten Ergebnisse lokal als CSV-Dateien. Früher habe ich Python 3 und den client von google. Ich habe die Konfiguration und Authentifizierung, aber das problem ist, dass ich kann nicht speichern Sie die Daten lokal. Jedesmal, wenn ich ausführen, bekomme ich folgende Fehlermeldung:

googleapiclient.Fehler.HttpError: https://www.googleapis.com/bigquery/v2/projects/round-office-769/jobs?alt=json zurückgegeben "Ungültige Ziel-URI extrahieren 'Antwort/Datei-name-*.csv'. Muss ein gültiges Google-Speicher-Pfad.">

Das ist mein Job-Konfiguration:

def export_table(service, cloud_storage_path,
             projectId, datasetId, tableId, sqlQuery,
             export_format="CSV",
             num_retries=5):

# Generate a unique job_id so retries
# don't accidentally duplicate export
job_data = {
    'jobReference': {
        'projectId': projectId,
        'jobId': str(uuid.uuid4())
    },
    'configuration': {
        'extract': {
            'sourceTable': {
                'projectId': projectId,
                'datasetId': datasetId,
                'tableId': tableId,
            },
            'destinationUris': ['response/file-name-*.csv'],
            'destinationFormat': export_format
        },
        'query': {
            'query': sqlQuery,
        }
    }
}
return service.jobs().insert(
    projectId=projectId,
    body=job_data).execute(num_retries=num_retries)

Ich hoffte, ich könnte einfach einen lokalen Pfad statt einem cloud-Speicher, um Daten zu speichern, aber ich war falsch.

Also meine Frage ist:

Kann ich laden Sie die abgefragten Daten lokal(oder auf eine lokale Datenbank) oder muss ich für die Nutzung von Google Cloud Storage?

InformationsquelleAutor mkjoerg | 2015-07-27
Schreibe einen Kommentar