Gewusst wie: Laden von Daten in Amazon Redshift über Python Boto3?
In Amazon Redshift ist Erste-Schritte-Handbuch Daten gezogen von Amazon S3 geladen und in einen Amazon Redshift-Cluster unter Verwendung SQLWorkbench/J. ich würde gerne zu imitieren, um den gleichen Prozess der Verbindung mit dem cluster und laden von sample-Daten in die cluster unter Verwendung Boto3.
Jedoch in Boto3 Dokumentation der Rotverschiebung, ich bin nicht in der Lage, eine Methode zu finden, die mir erlauben würde, den upload von Daten in Amazon Redshift-cluster.
Ich habe in der Lage, eine Verbindung mit der Rotverschiebung unter Verwendung Boto3 mit dem folgenden code:
client = boto3.client('redshift')
Aber ich bin mir nicht sicher, mit welcher Methode die mir erlauben würde, entweder Tabellen erstellen oder hochladen von Daten in Amazon Redshift die Art, wie es geschieht in der tutorial mit SQLWorkbenchJ.
Du musst angemeldet sein, um einen Kommentar abzugeben.
Gehen Sie zurück zu Schritt 4 in diesem tutorial verlinkt. Sehen, wo es zeigt Ihnen, wie man die URL des Clusters? Sie müssen eine Verbindung zu dieser URL mit einer PostgreSQL-Treiber. Die AWS SDKs wie Boto3 Zugriff auf die AWS-API. Sie müssen eine Verbindung zu einer Rotverschiebung von über einer PostgreSQL-API, wie würden Sie eine Verbindung zu einer PostgreSQL-Datenbank auf RDS.
Recht, Sie benötigen
psycopg2
Python-Modul zum ausführen von COPY-Befehl.Mein code sieht wie folgt aus:
Ich verwendet boto3/psycopg2 zu schreiben CSV_Loader_For_Redshift