Tag: sqoop

Sqoop ist ein open-source -, Top-Level-Apache-Projekt seit März 2012.

Sqoop ist ein open-source-connectivity-framework, das die übertragung zwischen mehreren Relationalen Datenbank-Management-Systeme (RDBMS) und HDFS. Sqoop verwendet MapReduce-Programme importieren und exportieren von Daten; die Importe und Exporte werden parallel ausgeführt.

Sqoop - Ist es möglich, import-Flachbild-Dateien in HDFS

Anzahl der Antworten 3 Antworten
Ich weiß, dass es möglich ist, zu importieren RDBM die Daten von HDFS über sqoop, aber ich würde gerne wissen, ob es möglich ist, zu importieren, Flachbild-Dateien sowie. Ist es beispielsweise möglich, für den import einer Datei

Hadoop - sqoop-Export/Import-Partitionierten Tabelle

Anzahl der Antworten 1 Antworten
Kann mir jemand erklären, wie man den export partitionierte Tabelle von Bienenstock zu MYSQL-Datenbank? Werden und wie der import in ein hive-partitionierten Tabelle aus mysql? Ich habe die Dokumente gelesen in google, aber nicht sicher über die

Sqoop-import : composite primary key und Text Primärschlüssel

Anzahl der Antworten 1 Antworten
Stack : Installiert HDP-2.3.2.0-2950 mit Ambari 2.1 Quell-DB-Schemas, die auf sql-server und enthält mehrere Tabellen, die entweder primary key als : Varchar Composite - zwei varchar-Spalten oder eine varchar - + eine int-Spalte oder zwei int-Spalten. Es

Sqoop zu create table schema mit "sqoop erstellen einer hive-Tabelle"

Anzahl der Antworten 1 Antworten
Ich habe mit sqoop erstellen-hive-table-Befehl mit den entsprechenden Argumenten, die würde kopieren Sie die Tabelle schema von mysql oder jede RDBMS-in-Struktur. Heute stieß ich auf eine Anforderung, wo ich zu verwenden habe "sqoop erstellen einer hive-Tabelle" zusammen

Es scheint, als wenn Sie mit sqoop mit einem JRE - Aber set JAVA_HOME auf JDK

Anzahl der Antworten 3 Antworten
Habe ich versucht einzurichten, sqoop (sqoop-1.4.3.bin__hadoop-1.0.0) auf Ubuntu. Ich kann die grundlegenden sqoop helfen etc ohne Probleme. Wenn ich das folgende bekomme ich eine Fehlermeldung: sqoop import --connect jdbc:mysql://localhost/test --table sales -m 1 13/04/19 10:35:24 INFO orm.CompilationManager:

Verarbeiten von blob-hive

Anzahl der Antworten 2 Antworten
Will ich speichern und abrufen von blob-hive.Ist es möglich, zum speichern von blob-hive? Wenn es nicht unterstützt, was für alternativen kann ich mit gehen? Blob kann sich innerhalb einer Beziehung DB auch. Ich habe einige der Forschung,

warum wird in diesem Sqoop-Befehl für das auflisten von Tabellen in einer Oracle-Datenbank nicht funktioniert?

Anzahl der Antworten 3 Antworten
Ich versuchte, Liste der Tabellen in einer Oracle-Datenbank mit folgenden Sqoop-Befehl: sqoop list-tables --connect jdbc:oracle:thin:@//10.13.25.118:1521/udc.ds.dtvops.net --username xxxx --password xxxx Aber ich bekomme diese Fehlermeldung: 13/11/12 16:34:58 WARN tool.BaseSqoopTool: Setting your password on the command-line is insecure. Consider

ERROR-tool.BaseSqoopTool: Fehler beim Parsen der Argumente für den job: Sqoop ich habe versucht einen Auftrag zu erstellen, in sqoop, aber der folgende Fehler aufgetreten

Anzahl der Antworten 3 Antworten
sqoop job --create myjob --import --connect "jdbc:mysql://localhost/classicmodels" --username root --password 123 --table customers -m 1 --taget-dir /manoj280217/sqoop Fehler: 17/02/28 08:56:18 INFO sqoop.Sqoop: Running Sqoop version: 1.4.6 17/02/28 08:56:18 ERROR tool.BaseSqoopTool: Error parsing arguments for job: 17/02/28 08:56:18

sqoop-export fehlschlägt, wenn ich die \N als Daten

Anzahl der Antworten 2 Antworten
Iam immer folgende Fehlermeldung, wenn ich meine sqoop-export-Befehl. Dies ist mein Inhalt exportiert werden, die von sqoop-Befehl 00001|Content|1|Content-Artikel|\N|2015-02-1815:16:04/2015-02-1815:16:04/1 |\N|\N|\N|\N|\N|\N|\N|\N|\N 00002|Content|1|Content-Artikel|\N|2015-02-1815:16:04/2015-02-1815:16:04/1 |\N|\N|\N|\N|\N|\N|\N|\N|\N sqoop Befehl sqoop export --connect jdbc:postgresql://10.11.12.13:1234/db --table table1 --username user1 --password pass1--export-dir /hivetables/table/ --fields-terminated-by '|' --lines-terminated-by

Apache Sqoop communication link failure

Anzahl der Antworten 4 Antworten
Bekomme ich folgenden Fehler wenn ich die mysql-Verbindung auf einem cluster (aaaaaa1) und sqooop auf einem anderen server (aaaaaa2), trotz das erstellen einer Tabelle in mySql mit vollen Berechtigungen der anderen cluster. Mir bitte helfen zu bestimmen,

Wie zum kopieren von Daten von einem HDFS zu einem anderen HDFS?

Anzahl der Antworten 6 Antworten
Habe ich zwei HDFS-setup und kopieren möchten (nicht migrieren oder zu verschieben) einige Tabellen aus HDFS1 zu HDFS2. Wie zum kopieren von Daten von einem HDFS zu einem anderen HDFS? Ist es möglich über Sqoop oder andere

Ist es möglich, zu Lesen MongoDB Daten, verarbeiten es mit Hadoop-und Ausgabe, die es in einem RDBS (MySQL)?

Anzahl der Antworten 3 Antworten
Zusammenfassung: Ist es möglich: Importieren von Daten in Hadoop mit dem «MongoDB Connector für Hadoop». Prozess mit Hadoop MapReduce. Exportieren Sie es mit Sqoop in einer einzigen Transaktion. Ich bin Aufbau einer web-Anwendung mit MongoDB. Während MongoDB

Wie verwenden von sqoop zum exportieren der Standard-hive-getrennte Ausgabe?

Anzahl der Antworten 4 Antworten
Habe ich eine hive-Abfrage: insert override directory /x select ... Bin ich dann versuchen, exportieren Sie die Daten mit sqoop sqoop export --connect jdbc:mysql://mysqlm/site --username site --password site --table x_data --export-dir /x --input-fields-terminated-by 0x01 --lines-terminated-by '\n' Aber

Sqoop-import mit SQL-Abfrage mit where-Klausel

Anzahl der Antworten 4 Antworten
sqoop import --connect jdbc:teradata://192.168.xx.xx/DBS_PORT=1025,DATABASE=ds_tbl_db --driver com.teradata.jdbc.TeraDriver --username dbc --password dbc --query 'select * from reason where id>20' --hive-import --hive-table reason_hive --target-dir <hdfs-location> -m 1 Bekam ich die Fehlermeldung: Query ['select * from Grund, wo id>20] enthalten muss,

Sqoop import ohne Primärschlüssel RDBMS

Anzahl der Antworten 5 Antworten
Kann ich import RDBMS-Tabelle Daten (Tabelle nicht über einen Primärschlüssel) zu hive mithilfe von sqoop? Wenn ja, dann können Sie bitte geben Sie den sqoop-import-Befehl. Ich habe versucht mit sqoop-import-general-Befehl, aber es ist fehlgeschlagen. InformationsquelleAutor | 2015-03-19

Während sqoop-import ist ein Fehler aufgetreten "Konvertieren den varchar-Wert für JDBC-Datentyp DECIMAL"

Anzahl der Antworten 2 Antworten
Szenario: Wenn ich geben Sie den sqoop-import Abfrage bin ich immer wie folgt: Fehler: hadoop@ubuntu:~/sqoop-1.1.0/bin$ ./sqoop-import --driver 'com.microsoft.sqlserver.jdbc.SQLServerDriver' --connect 'jdbc:sqlserver://192.168.xx.xx;database=HadoopTest;user=xxxxx;password=xxxxxx' --table PersonInfo1 --target-dir /data/PersonInfoData --check-column email --incremental append --compress11/12/10 15:52:50 INFO tool.CodeGenTool: Beginning code generation 11/12/10 15:52:50

oozie hive hadoop-jobs

Anzahl der Antworten 3 Antworten
Hallo ich bin in der Lage, führen Sie einen hive-Befehl in hive-terminal aber wenn ich versuche, führen Sie es durch oozie ich bin nicht in der Lage, es laufen immer einige Fehler ans-log-Datei sieht wie folgt aus

Bekam Ausnahme laufen Sqoop: java.lang.NullPointerException mit -Abfrage-und-wie-parquetfile

Anzahl der Antworten 1 Antworten
Ich versuche, eine Tabelle importieren-Daten aus der Rotverschiebung zu HDFS (mit Parkett-format) und mit Blick auf die Fehlermeldung, die unten gezeigt: 15/06/25 11:05:42 ERROR sqoop.Sqoop: Got exception running Sqoop: java.lang.NullPointerException java.lang.NullPointerException at org.apache.sqoop.tool.CodeGenTool.generateORM(CodeGenTool.java:97) at org.apache.sqoop.tool.ImportTool.importTable(ImportTool.java:478) at org.apache.sqoop.tool.ImportTool.run(ImportTool.java:605)

sqoop, wählen Sie bestimmte Spalten

Anzahl der Antworten 2 Antworten
In der sqoop-Anweisungen, gibt es eine Bestimmung, wo wir wählen nur bestimmte Spalten aus der oracle Seite? 1 : Werke sqoop import --target-dir /tmp/customers --query "SELECT * FROM schema1.customers where item>=1234 and \$CONDITIONS" --connect jdbc:oracle:thin:@server1.companyxyz.com:4567/prod --username xyz

Gewusst wie: importieren von Tabellen aus sql server mithilfe von sqoop zu hdfs

Anzahl der Antworten 6 Antworten
Habe ich von hadoop, hive, sqoop installiert. Ich habe eine importierte Tabelle aus meiner Datenbank zu hdfs, aber couldnt import-Struktur. Muss ich konfigurieren eine Datei im Bienenstock? Auch wenn ich das web durchsucht die Konfiguration für MySQL,

Wie schreibt man einen Sqoop-Job mit shell-Skript

Anzahl der Antworten 2 Antworten
Mein use-case: Sich von Tag zu Tag stündlich Tabellen wird erstellt in der mysql-db. Ich brauche, um Sie zu bewegen jeden Tag, um HDFS verwenden von Sqoop und Prozess der HDFS-Daten mit Impala. Wie zu schreiben Sie

Zum verwenden von Sqoop-create-hive-Tabelle

Anzahl der Antworten 2 Antworten
Kann jemand sagen, den Unterschied zwischen create-hive-table & hive-import Methode? Beide erstellen einer hive-Tabelle, aber noch was ist die Bedeutung der einzelnen? InformationsquelleAutor Priya v v | 2015-07-20

Unterschied zwischen --append und --incremental append in sqoop

Anzahl der Antworten 2 Antworten
Ist, gibt es einen Unterschied zwischen der Verwendung von --append und --incremental Anhängen für das einfügen neuer Zeilen aus RDBMS zu einem vorhandenen Datensatz in HDFS? Ich bin mit --append zusammen mit --und wo --incremental append zusammen

Wo installiere ich den jdbc-Treiber unter ubuntu?

Anzahl der Antworten 2 Antworten
Ich versuche zu installieren von der MS-SQL-JDBC-Treiber auf ubuntu verwendet werden, die mit sqoop für Hadoop. Ich bin völlig neu in java und linux, so bin ich nicht sicher, wo zu extrahieren alles zu. InformationsquelleAutor Micah |

sqoop-import abgeschlossen, aber hive-Tabellen anzeigen, können Sie nicht, siehe Tabelle

Anzahl der Antworten 7 Antworten
Nach der Installation von hadoop, hive (CDH version), führe ich ./sqoop import -connect jdbc:mysql://10.164.11.204/server -username root -password password -table user -hive-import --hive-home /opt/hive/ Geht alles gut, aber wenn ich geben Sie hive-Befehlszeile und führen Sie show tables

Sqoop-import-Null-Zeichenfolge

Anzahl der Antworten 2 Antworten
Den Null Werte angezeigt werden, als '\N' bei einer externen hive-Tabelle wird abgefragt. Unten ist die sqoop import-Skript: sqoop-import -libjars /usr/lib/sqoop/lib/tdgssconfig.jar,/usr/lib/sqoop/lib/terajdbc4.jar -Dmapred.job.Warteschlange.name=xxxxxx \ --connect jdbc:teradata://xxx.xx.xxx.xx/DATABASE=$db,LOGMECH=LDAP --Verbindungs-manager, org.apache.sqoop.teradata.TeradataConnManager \ --username $user --password $pwd --Abfrage " select col1,col2,col3 from

Mehrere Tabellen-join in hive

Anzahl der Antworten 2 Antworten
Habe ich migriert auf Teradata-Tabellen Daten in hive . Nun habe ich mir build summary-Tabellen auf der Oberseite der importierten Daten. Zusammenfassung Tabelle muss gebaut werden, von fünf Quelle-Tabellen Wenn ich mit joins, ich werde teilnehmen müssen

Sqoop : importieren von Daten aus Oracle

Anzahl der Antworten 9 Antworten
Ich versuche es mal mit Sqoop import von Daten aus einer Oracle-DB. Ich den JDBC-Treiber für Oracle (ojdbc6.jar) in SQOOP_HOME/lib. Mein JDK 1.6-version. Hier ist meine Abfrage : sqoop import --hive-import --connect jdbc:oracle:thin@<ip_server>:1521/db --table ENTITE --username username

(Sqoop-import) FEHLER-tool.ImportTool: Begegnet IOException ausgeführt import job: java.io.IOException: Hive beendet mit status 9

Anzahl der Antworten 4 Antworten
geben, wenn ich den Befehl : ./sqoop-import --connect jdbc:mysql://localhost/sqoop2 -table sqeep2 -m 1 -hive-import wenn Sie diesen Befehl ausführen : hadoop@dewi:/opt/sqoop/bin$ ./sqoop-import --connect jdbc:mysql://localhost/sqoop2 -table sqeep2 -m 1 -hive-import 12/06/20 10:00:44 INFO tool.BaseSqoopTool: Using Hive-specific delimiters for

Wie kann ich ausführen, Sqoop in Java?

Anzahl der Antworten 3 Antworten
Erstellte ich ein neues Java-Projekt, dann habe ich die Bibliothek Sqoop und Hadoop. (Die Bibliotheken sind "hadoop-core-1.1.1.jar, sqoop-1.4.2.jar usw.... ".) Dann habe ich versucht, folgenden code: public class MySqoopDriver { public static void main(String args) { String

Sqoop Import erfolgreich abgeschlossen ist. Wie sehen diese Tabellen in Hive

Anzahl der Antworten 7 Antworten
Ich versuche etwas auf die hadoop und Verwandte Dinge. Für diese habe ich so konfiguriert haben, dass hadoop, hase, hive, sqoop in Ubuntu-Rechner. raghu@system4:~/sqoop$ bin/sqoop-import --connect jdbc:mysql://localhost:3306/mysql --username root --password password --table user --hive-import -m 1 Geht

Wie verwende ich Sqoop für den Import von Daten aus einer relationalen DB sandbox Hive?

Anzahl der Antworten 2 Antworten
Wie verwende ich Sqoop für den Import von Daten aus einer relationalen DB auf Hive in der Sandbox. Ich habe Installiert Horton Works Sandkasten in MEINEM PC. Nw will ich wissen das der migration.Ich habe referd diesen

Sqoop import-als-parquetfile mit CDH5

Anzahl der Antworten 6 Antworten
Ich versuche zum import von Daten direkt aus der mysql-auch für Parkett, aber es scheint nicht korrekt zu funktionieren... Ich bin mit CDH5.3 umfasst Sqoop 1.4.5. Hier ist meine Befehlszeile : sqoop import --connect jdbc:mysql://xx.xx.xx.xx/database --username username

Was ist-direct-Modus in sqoop?

Anzahl der Antworten 4 Antworten
Gemäß meinem Verständnis sqoop verwendet wird zum importieren oder exportieren von Tabellen/Daten aus der Datenbank, die HDFS oder Hive oder HBASE. Und wir direkt importieren können Sie eine einzelne Tabelle oder die Liste von Tabellen. Intern mapreduce-Programm

sqoop import mehrerer Tabellen

Anzahl der Antworten 6 Antworten
Sind wir mit Cloudera CDH-4 und wir sind in der Lage, importieren von Tabellen aus unseren Oracle-Datenbanken in unser HDFS-Lager als erwartet. Das problem ist, wir haben die 10 ' s von tausenden von Tabellen innerhalb unserer

Was ist der Unterschied zwischen --split-und --boundary-Abfrage in der SQOOP?

Anzahl der Antworten 3 Antworten
Vorausgesetzt, wir haben nicht eine Spalte wo die Werte sind gleichmäßig verteilt, sagen wir, wir haben einen Befehl wie diesen: sqoop import \ ... --boundary-query "SELECT min(id), max(id) from some_table" --split-by id ... Was ist der Punkt

Sqoop - Konnte nicht gefunden oder geladen werden Hauptklasse org.apache.sqoop.Sqoop

Anzahl der Antworten 5 Antworten
Ich installiert Hadoop, Hive, HBase, Sqoop und hat Sie auf den WEG. Wenn ich versuche ausführen sqoop Befehl, ich bin immer diese Fehlermeldung: Error: Could not find or load main class org.apache.sqoop.Sqoop Entwicklungsumgebung: OS : Ubuntu 12.04

"Got error creating database manager" - Fehler in der sqoop-import Abfrage

Anzahl der Antworten 3 Antworten
Szenario: Ich versuche zu importieren von sql server in HDFS, aber ich bin immer Fehler wie: Fehler: hadoop@ubuntu:~/sqoop-1.1.0/bin$ ./sqoop import --connect 'jdbc:sqlserver://192.168.230.1;username=xxx;password=xxxxx;database=HadoopTest' --table PersonInfo --target-dir /home/hadoop/hadoop-0.21.0/ 11/12/10 12:13:20 ERROR tool.BaseSqoopTool: Got error creating database manager: java.io.IOException: No

Shell-Skript durch oozie

Anzahl der Antworten 2 Antworten
Ich versuche das ausführen einer shell-Skript durch oozie aber ich habe einige Fragen. Ich habe eine property-Datei wie diese ("importieren".Eigenschaften): startIndex=2000 chunkSize=2000 Die Idee ist, in jeder einzelnen Ausführung, die startIndex-Wert wird aktualisiert, indem Sie die chunk-Größe.

Delta/Incremental Load Hive

Anzahl der Antworten 4 Antworten
Ich haben folgenden Fall : Meiner Anwendung eine Tabelle mit mehrjährigen Daten in RDBMS DB. Wir haben sqoop, um Daten in HDFS und geladen haben, in die hive-Tabelle partitioniert Jahr, Monat. Nun, die Programm-updates und fügt neue

Sqoop-import als Datei OrC

Anzahl der Antworten 4 Antworten
Gibt es eine Möglichkeit in sqoop import von Daten aus RDMS und speichern Sie es als ORC Datei-format in HDFS? Alternativen ausprobiert: importiert als text-format und verwendet eine temporäre Tabelle zu Lesen Sie die Eingabe als text-Datei

So finden Sie die optimale Anzahl von Mappern beim ausführen von Sqoop-import und-export?

Anzahl der Antworten 2 Antworten
Ich bin mit Sqoop version 1.4.2 und Oracle-Datenbank. Beim ausführen von Sqoop-Befehl. Zum Beispiel so: ./sqoop import \ --fs <name node> \ --jt <job tracker> \ --connect <JDBC string> \ --username <user> --password <password> \ --table <table>

Sqoop: Konnte nicht geladen mysql-Treiber Ausnahme

Anzahl der Antworten 6 Antworten
Ich Installiert Sqoop in meiner lokalen Maschine. Im folgenden sind die config-Daten. Bash.bashrc: export HADOOP_HOME=/home/hduser/hadoop export HBASE_HOME=/home/hduser/hbase export HIVE_HOME=/home/hduser/hive export HCAT_HOME=/home/hduser/hive/hcatalog export SQOOP_HOME=/home/hduser/sqoop export PATH=$PATH:$HIVE_HOME/bin export PATH=$PATH:$HADOOP_HOME/bin export PATH=$PATH:$HBASE_HOME/bin export PATH=$PATH:$SQOOP_HOME/bin export PATH=$PATH:$HCAT_HOME/bin Hadoop: Version: Hadoop 1.0.3

Wie der Verwendung eines bestimmten Hive-Datenbank beim verwenden von Sqoop-import

Anzahl der Antworten 3 Antworten
sqoop import --connect jdbc:mysql://remote-ip/db --username xxx --password xxx --table tb --hive-import Den oben genannten Befehl importiert Tisch tb in der 'default' Hive-Datenbank. Kann ich die anderen Datenbank statt? InformationsquelleAutor JustFF | 2013-03-21

Sqoop Hive-Tabelle importieren, Tabelle Datentyp stimmt nicht überein mit der Datenbank

Anzahl der Antworten 3 Antworten
Mithilfe von Sqoop import von Daten aus oracle-Struktur und seine Arbeitsmethoden in Ordnung, aber es erstellt eine Tabelle in hive mit nur 2 Datentypen String und Double. Ich will Zeitstempel als Datentyp für einige Spalten. Wie kann

Ausführung Sqoops mit Oozie

Anzahl der Antworten 2 Antworten
Ich habe 2 Sqoops, lädt die Daten aus HDFS, MySQL. Ich will führen Sie Sie mit Oozie. Ich habe gesehen, dass Oozie ist eine XML-Datei. Wie kann ich es konfigurieren, so kann ich ausführen, die Sqoop? Demonstration

sqoop-import-Problem mit mysql

Anzahl der Antworten 9 Antworten
Habe ich eine hadoop-ha-setup basierend auf cdh5.Ich habe versucht, den import von Tabellen aus mysql durch verwenden von sqoop ist fehlgeschlagen mit folgendem Fehler. 15/03/20 12:47:53 ERROR manager.SqlManager: Error reading from database: java.sql.SQLException: Streaming result set com.mysql.jdbc.RowDataDynamic@33573e93

Sqoop Inkrementellen Import

Anzahl der Antworten 8 Antworten
Brauchen Beratung auf Sqoop Inkrementelle Importe. Sagen, ich habe einen Kunden mit Policy 1 an Tag 1 und ich importiert die Datensätze in HDFS auf Tag 1, und ich sehe Sie in der Teil-Dateien. Am Tag 2,

Oozie + Sqoop: JDBC-Treiber-Jar-Speicherort

Anzahl der Antworten 4 Antworten
Ich habe einen 6 Knoten cloudera hadoop-basierte cluster-und ich bin versucht, eine Verbindung zu einer oracle-Datenbank aus einem sqoop Aktion in oozie. Habe ich kopiert meine ojdbc6.jar in der sqoop lib Lage (was für mich passiert zu

Wie kopiere ich Daten von einem HDFS zu einem anderen HDFS?

Anzahl der Antworten 6 Antworten
Habe ich zwei HDFS-setup und kopieren möchten (nicht migrieren oder zu verschieben) einige Tabellen aus HDFS1 zu HDFS2. , Wie kopiere ich Daten von einem HDFS zu einem anderen HDFS? Ist es möglich über Sqoop oder andere