Tag: sqoop
Sqoop ist ein open-source -, Top-Level-Apache-Projekt seit März 2012.
Sqoop ist ein open-source-connectivity-framework, das die übertragung zwischen mehreren Relationalen Datenbank-Management-Systeme (RDBMS) und HDFS. Sqoop verwendet MapReduce-Programme importieren und exportieren von Daten; die Importe und Exporte werden parallel ausgeführt.
3
Antworten
Ich weiß, dass es möglich ist, zu importieren RDBM die Daten von HDFS über sqoop, aber ich würde gerne wissen, ob es möglich ist, zu importieren, Flachbild-Dateien sowie. Ist es beispielsweise möglich, für den import einer Datei
1
Antworten
Kann mir jemand erklären, wie man den export partitionierte Tabelle von Bienenstock zu MYSQL-Datenbank? Werden und wie der import in ein hive-partitionierten Tabelle aus mysql? Ich habe die Dokumente gelesen in google, aber nicht sicher über die
1
Antworten
Stack : Installiert HDP-2.3.2.0-2950 mit Ambari 2.1 Quell-DB-Schemas, die auf sql-server und enthält mehrere Tabellen, die entweder primary key als : Varchar Composite - zwei varchar-Spalten oder eine varchar - + eine int-Spalte oder zwei int-Spalten. Es
1
Antworten
Ich habe mit sqoop erstellen-hive-table-Befehl mit den entsprechenden Argumenten, die würde kopieren Sie die Tabelle schema von mysql oder jede RDBMS-in-Struktur. Heute stieß ich auf eine Anforderung, wo ich zu verwenden habe "sqoop erstellen einer hive-Tabelle" zusammen
3
Antworten
Habe ich versucht einzurichten, sqoop (sqoop-1.4.3.bin__hadoop-1.0.0) auf Ubuntu. Ich kann die grundlegenden sqoop helfen etc ohne Probleme. Wenn ich das folgende bekomme ich eine Fehlermeldung: sqoop import --connect jdbc:mysql://localhost/test --table sales -m 1 13/04/19 10:35:24 INFO orm.CompilationManager:
2
Antworten
Will ich speichern und abrufen von blob-hive.Ist es möglich, zum speichern von blob-hive? Wenn es nicht unterstützt, was für alternativen kann ich mit gehen? Blob kann sich innerhalb einer Beziehung DB auch. Ich habe einige der Forschung,
3
Antworten
Ich versuchte, Liste der Tabellen in einer Oracle-Datenbank mit folgenden Sqoop-Befehl: sqoop list-tables --connect jdbc:oracle:thin:@//10.13.25.118:1521/udc.ds.dtvops.net --username xxxx --password xxxx Aber ich bekomme diese Fehlermeldung: 13/11/12 16:34:58 WARN tool.BaseSqoopTool: Setting your password on the command-line is insecure. Consider
3
Antworten
sqoop job --create myjob --import --connect "jdbc:mysql://localhost/classicmodels" --username root --password 123 --table customers -m 1 --taget-dir /manoj280217/sqoop Fehler: 17/02/28 08:56:18 INFO sqoop.Sqoop: Running Sqoop version: 1.4.6 17/02/28 08:56:18 ERROR tool.BaseSqoopTool: Error parsing arguments for job: 17/02/28 08:56:18
2
Antworten
Iam immer folgende Fehlermeldung, wenn ich meine sqoop-export-Befehl. Dies ist mein Inhalt exportiert werden, die von sqoop-Befehl 00001|Content|1|Content-Artikel|\N|2015-02-1815:16:04/2015-02-1815:16:04/1 |\N|\N|\N|\N|\N|\N|\N|\N|\N 00002|Content|1|Content-Artikel|\N|2015-02-1815:16:04/2015-02-1815:16:04/1 |\N|\N|\N|\N|\N|\N|\N|\N|\N sqoop Befehl sqoop export --connect jdbc:postgresql://10.11.12.13:1234/db --table table1 --username user1 --password pass1--export-dir /hivetables/table/ --fields-terminated-by '|' --lines-terminated-by
4
Antworten
Bekomme ich folgenden Fehler wenn ich die mysql-Verbindung auf einem cluster (aaaaaa1) und sqooop auf einem anderen server (aaaaaa2), trotz das erstellen einer Tabelle in mySql mit vollen Berechtigungen der anderen cluster. Mir bitte helfen zu bestimmen,
6
Antworten
Habe ich zwei HDFS-setup und kopieren möchten (nicht migrieren oder zu verschieben) einige Tabellen aus HDFS1 zu HDFS2. Wie zum kopieren von Daten von einem HDFS zu einem anderen HDFS? Ist es möglich über Sqoop oder andere
3
Antworten
Zusammenfassung: Ist es möglich: Importieren von Daten in Hadoop mit dem «MongoDB Connector für Hadoop». Prozess mit Hadoop MapReduce. Exportieren Sie es mit Sqoop in einer einzigen Transaktion. Ich bin Aufbau einer web-Anwendung mit MongoDB. Während MongoDB
4
Antworten
Habe ich eine hive-Abfrage: insert override directory /x select ... Bin ich dann versuchen, exportieren Sie die Daten mit sqoop sqoop export --connect jdbc:mysql://mysqlm/site --username site --password site --table x_data --export-dir /x --input-fields-terminated-by 0x01 --lines-terminated-by '\n' Aber
4
Antworten
sqoop import --connect jdbc:teradata://192.168.xx.xx/DBS_PORT=1025,DATABASE=ds_tbl_db --driver com.teradata.jdbc.TeraDriver --username dbc --password dbc --query 'select * from reason where id>20' --hive-import --hive-table reason_hive --target-dir <hdfs-location> -m 1 Bekam ich die Fehlermeldung: Query ['select * from Grund, wo id>20] enthalten muss,
5
Antworten
Kann ich import RDBMS-Tabelle Daten (Tabelle nicht über einen Primärschlüssel) zu hive mithilfe von sqoop? Wenn ja, dann können Sie bitte geben Sie den sqoop-import-Befehl. Ich habe versucht mit sqoop-import-general-Befehl, aber es ist fehlgeschlagen. InformationsquelleAutor | 2015-03-19
2
Antworten
Szenario: Wenn ich geben Sie den sqoop-import Abfrage bin ich immer wie folgt: Fehler: hadoop@ubuntu:~/sqoop-1.1.0/bin$ ./sqoop-import --driver 'com.microsoft.sqlserver.jdbc.SQLServerDriver' --connect 'jdbc:sqlserver://192.168.xx.xx;database=HadoopTest;user=xxxxx;password=xxxxxx' --table PersonInfo1 --target-dir /data/PersonInfoData --check-column email --incremental append --compress11/12/10 15:52:50 INFO tool.CodeGenTool: Beginning code generation 11/12/10 15:52:50
3
Antworten
Hallo ich bin in der Lage, führen Sie einen hive-Befehl in hive-terminal aber wenn ich versuche, führen Sie es durch oozie ich bin nicht in der Lage, es laufen immer einige Fehler ans-log-Datei sieht wie folgt aus
1
Antworten
Ich versuche, eine Tabelle importieren-Daten aus der Rotverschiebung zu HDFS (mit Parkett-format) und mit Blick auf die Fehlermeldung, die unten gezeigt: 15/06/25 11:05:42 ERROR sqoop.Sqoop: Got exception running Sqoop: java.lang.NullPointerException java.lang.NullPointerException at org.apache.sqoop.tool.CodeGenTool.generateORM(CodeGenTool.java:97) at org.apache.sqoop.tool.ImportTool.importTable(ImportTool.java:478) at org.apache.sqoop.tool.ImportTool.run(ImportTool.java:605)
2
Antworten
In der sqoop-Anweisungen, gibt es eine Bestimmung, wo wir wählen nur bestimmte Spalten aus der oracle Seite? 1 : Werke sqoop import --target-dir /tmp/customers --query "SELECT * FROM schema1.customers where item>=1234 and \$CONDITIONS" --connect jdbc:oracle:thin:@server1.companyxyz.com:4567/prod --username xyz
6
Antworten
Habe ich von hadoop, hive, sqoop installiert. Ich habe eine importierte Tabelle aus meiner Datenbank zu hdfs, aber couldnt import-Struktur. Muss ich konfigurieren eine Datei im Bienenstock? Auch wenn ich das web durchsucht die Konfiguration für MySQL,
2
Antworten
Mein use-case: Sich von Tag zu Tag stündlich Tabellen wird erstellt in der mysql-db. Ich brauche, um Sie zu bewegen jeden Tag, um HDFS verwenden von Sqoop und Prozess der HDFS-Daten mit Impala. Wie zu schreiben Sie
2
Antworten
Kann jemand sagen, den Unterschied zwischen create-hive-table & hive-import Methode? Beide erstellen einer hive-Tabelle, aber noch was ist die Bedeutung der einzelnen? InformationsquelleAutor Priya v v | 2015-07-20
2
Antworten
Ist, gibt es einen Unterschied zwischen der Verwendung von --append und --incremental Anhängen für das einfügen neuer Zeilen aus RDBMS zu einem vorhandenen Datensatz in HDFS? Ich bin mit --append zusammen mit --und wo --incremental append zusammen
2
Antworten
Ich versuche zu installieren von der MS-SQL-JDBC-Treiber auf ubuntu verwendet werden, die mit sqoop für Hadoop. Ich bin völlig neu in java und linux, so bin ich nicht sicher, wo zu extrahieren alles zu. InformationsquelleAutor Micah |
7
Antworten
Nach der Installation von hadoop, hive (CDH version), führe ich ./sqoop import -connect jdbc:mysql://10.164.11.204/server -username root -password password -table user -hive-import --hive-home /opt/hive/ Geht alles gut, aber wenn ich geben Sie hive-Befehlszeile und führen Sie show tables
2
Antworten
Den Null Werte angezeigt werden, als '\N' bei einer externen hive-Tabelle wird abgefragt. Unten ist die sqoop import-Skript: sqoop-import -libjars /usr/lib/sqoop/lib/tdgssconfig.jar,/usr/lib/sqoop/lib/terajdbc4.jar -Dmapred.job.Warteschlange.name=xxxxxx \ --connect jdbc:teradata://xxx.xx.xxx.xx/DATABASE=$db,LOGMECH=LDAP --Verbindungs-manager, org.apache.sqoop.teradata.TeradataConnManager \ --username $user --password $pwd --Abfrage " select col1,col2,col3 from
2
Antworten
Habe ich migriert auf Teradata-Tabellen Daten in hive . Nun habe ich mir build summary-Tabellen auf der Oberseite der importierten Daten. Zusammenfassung Tabelle muss gebaut werden, von fünf Quelle-Tabellen Wenn ich mit joins, ich werde teilnehmen müssen
9
Antworten
Ich versuche es mal mit Sqoop import von Daten aus einer Oracle-DB. Ich den JDBC-Treiber für Oracle (ojdbc6.jar) in SQOOP_HOME/lib. Mein JDK 1.6-version. Hier ist meine Abfrage : sqoop import --hive-import --connect jdbc:oracle:thin@<ip_server>:1521/db --table ENTITE --username username
4
Antworten
geben, wenn ich den Befehl : ./sqoop-import --connect jdbc:mysql://localhost/sqoop2 -table sqeep2 -m 1 -hive-import wenn Sie diesen Befehl ausführen : hadoop@dewi:/opt/sqoop/bin$ ./sqoop-import --connect jdbc:mysql://localhost/sqoop2 -table sqeep2 -m 1 -hive-import 12/06/20 10:00:44 INFO tool.BaseSqoopTool: Using Hive-specific delimiters for
3
Antworten
Erstellte ich ein neues Java-Projekt, dann habe ich die Bibliothek Sqoop und Hadoop. (Die Bibliotheken sind "hadoop-core-1.1.1.jar, sqoop-1.4.2.jar usw.... ".) Dann habe ich versucht, folgenden code: public class MySqoopDriver { public static void main(String args) { String
7
Antworten
Ich versuche etwas auf die hadoop und Verwandte Dinge. Für diese habe ich so konfiguriert haben, dass hadoop, hase, hive, sqoop in Ubuntu-Rechner. raghu@system4:~/sqoop$ bin/sqoop-import --connect jdbc:mysql://localhost:3306/mysql --username root --password password --table user --hive-import -m 1 Geht
2
Antworten
Wie verwende ich Sqoop für den Import von Daten aus einer relationalen DB auf Hive in der Sandbox. Ich habe Installiert Horton Works Sandkasten in MEINEM PC. Nw will ich wissen das der migration.Ich habe referd diesen
6
Antworten
Ich versuche zum import von Daten direkt aus der mysql-auch für Parkett, aber es scheint nicht korrekt zu funktionieren... Ich bin mit CDH5.3 umfasst Sqoop 1.4.5. Hier ist meine Befehlszeile : sqoop import --connect jdbc:mysql://xx.xx.xx.xx/database --username username
4
Antworten
Gemäß meinem Verständnis sqoop verwendet wird zum importieren oder exportieren von Tabellen/Daten aus der Datenbank, die HDFS oder Hive oder HBASE. Und wir direkt importieren können Sie eine einzelne Tabelle oder die Liste von Tabellen. Intern mapreduce-Programm
6
Antworten
Sind wir mit Cloudera CDH-4 und wir sind in der Lage, importieren von Tabellen aus unseren Oracle-Datenbanken in unser HDFS-Lager als erwartet. Das problem ist, wir haben die 10 ' s von tausenden von Tabellen innerhalb unserer
3
Antworten
Vorausgesetzt, wir haben nicht eine Spalte wo die Werte sind gleichmäßig verteilt, sagen wir, wir haben einen Befehl wie diesen: sqoop import \ ... --boundary-query "SELECT min(id), max(id) from some_table" --split-by id ... Was ist der Punkt
5
Antworten
Ich installiert Hadoop, Hive, HBase, Sqoop und hat Sie auf den WEG. Wenn ich versuche ausführen sqoop Befehl, ich bin immer diese Fehlermeldung: Error: Could not find or load main class org.apache.sqoop.Sqoop Entwicklungsumgebung: OS : Ubuntu 12.04
3
Antworten
Szenario: Ich versuche zu importieren von sql server in HDFS, aber ich bin immer Fehler wie: Fehler: hadoop@ubuntu:~/sqoop-1.1.0/bin$ ./sqoop import --connect 'jdbc:sqlserver://192.168.230.1;username=xxx;password=xxxxx;database=HadoopTest' --table PersonInfo --target-dir /home/hadoop/hadoop-0.21.0/ 11/12/10 12:13:20 ERROR tool.BaseSqoopTool: Got error creating database manager: java.io.IOException: No
2
Antworten
Ich versuche das ausführen einer shell-Skript durch oozie aber ich habe einige Fragen. Ich habe eine property-Datei wie diese ("importieren".Eigenschaften): startIndex=2000 chunkSize=2000 Die Idee ist, in jeder einzelnen Ausführung, die startIndex-Wert wird aktualisiert, indem Sie die chunk-Größe.
4
Antworten
Ich haben folgenden Fall : Meiner Anwendung eine Tabelle mit mehrjährigen Daten in RDBMS DB. Wir haben sqoop, um Daten in HDFS und geladen haben, in die hive-Tabelle partitioniert Jahr, Monat. Nun, die Programm-updates und fügt neue
4
Antworten
Gibt es eine Möglichkeit in sqoop import von Daten aus RDMS und speichern Sie es als ORC Datei-format in HDFS? Alternativen ausprobiert: importiert als text-format und verwendet eine temporäre Tabelle zu Lesen Sie die Eingabe als text-Datei
2
Antworten
Ich bin mit Sqoop version 1.4.2 und Oracle-Datenbank. Beim ausführen von Sqoop-Befehl. Zum Beispiel so: ./sqoop import \ --fs <name node> \ --jt <job tracker> \ --connect <JDBC string> \ --username <user> --password <password> \ --table <table>
6
Antworten
Ich Installiert Sqoop in meiner lokalen Maschine. Im folgenden sind die config-Daten. Bash.bashrc: export HADOOP_HOME=/home/hduser/hadoop export HBASE_HOME=/home/hduser/hbase export HIVE_HOME=/home/hduser/hive export HCAT_HOME=/home/hduser/hive/hcatalog export SQOOP_HOME=/home/hduser/sqoop export PATH=$PATH:$HIVE_HOME/bin export PATH=$PATH:$HADOOP_HOME/bin export PATH=$PATH:$HBASE_HOME/bin export PATH=$PATH:$SQOOP_HOME/bin export PATH=$PATH:$HCAT_HOME/bin Hadoop: Version: Hadoop 1.0.3
3
Antworten
sqoop import --connect jdbc:mysql://remote-ip/db --username xxx --password xxx --table tb --hive-import Den oben genannten Befehl importiert Tisch tb in der 'default' Hive-Datenbank. Kann ich die anderen Datenbank statt? InformationsquelleAutor JustFF | 2013-03-21
3
Antworten
Mithilfe von Sqoop import von Daten aus oracle-Struktur und seine Arbeitsmethoden in Ordnung, aber es erstellt eine Tabelle in hive mit nur 2 Datentypen String und Double. Ich will Zeitstempel als Datentyp für einige Spalten. Wie kann
2
Antworten
Ich habe 2 Sqoops, lädt die Daten aus HDFS, MySQL. Ich will führen Sie Sie mit Oozie. Ich habe gesehen, dass Oozie ist eine XML-Datei. Wie kann ich es konfigurieren, so kann ich ausführen, die Sqoop? Demonstration
9
Antworten
Habe ich eine hadoop-ha-setup basierend auf cdh5.Ich habe versucht, den import von Tabellen aus mysql durch verwenden von sqoop ist fehlgeschlagen mit folgendem Fehler. 15/03/20 12:47:53 ERROR manager.SqlManager: Error reading from database: java.sql.SQLException: Streaming result set com.mysql.jdbc.RowDataDynamic@33573e93
8
Antworten
Brauchen Beratung auf Sqoop Inkrementelle Importe. Sagen, ich habe einen Kunden mit Policy 1 an Tag 1 und ich importiert die Datensätze in HDFS auf Tag 1, und ich sehe Sie in der Teil-Dateien. Am Tag 2,
4
Antworten
Ich habe einen 6 Knoten cloudera hadoop-basierte cluster-und ich bin versucht, eine Verbindung zu einer oracle-Datenbank aus einem sqoop Aktion in oozie. Habe ich kopiert meine ojdbc6.jar in der sqoop lib Lage (was für mich passiert zu
6
Antworten
Habe ich zwei HDFS-setup und kopieren möchten (nicht migrieren oder zu verschieben) einige Tabellen aus HDFS1 zu HDFS2. , Wie kopiere ich Daten von einem HDFS zu einem anderen HDFS? Ist es möglich über Sqoop oder andere