Tag: impala
Apache Impala ist die offene Quelle, native analytische Datenbank
für Apache Hadoop. Impala geliefert wird von Cloudera, MapR, Oracle und Amazon.
1
Antworten
Wie kann ich einen MINUS-operator-Suchanfrage im Impala? Beispiel: Tabelle: Spiel Spalten: Official_start, halftime_start Will ich senden Sie eine Abfrage, in der halftime_start - official_start und speichern Sie es als firsttimeplayed Ich weiß, dass MINUS nicht vorhanden Impala
2
Antworten
Ich versuche zu konvertieren, leere Werte in der Quell-Datei auf NULL in der hive-Tabelle durch das setzen der Eigenschaft 'serialization.null.format' = '' . Die Abfrage die ich geschrieben habe, in hive ist: create table test(a int, b
1
Antworten
Ich habe eine Tabelle mit Partitionen und ich benutze avro-Dateien oder text-Dateien zu erstellen und in eine Tabelle einfügen. Sobald die Tabelle fertig ist, ist es ein Weg, um konvertieren in das Parkett. Ich meine, ich weiß,
2
Antworten
ich habe ein problem beim ausführen dieses bash-code: function createImpalaPartition() { period_id=$1; database=$2 node=$3 actual_full=$(date -d@"$period_id" +%Y/%m/%d/%H/%M/) template="use c2d;create EXTERNAL TABLE exptopology_$period_id (child_id bigint,parent_id bigint,level INT) ROW FORMAT DELIMITED FIELDS TERMINATED BY ',' WITH SERDEPROPERTIES ('serialization.format'=',', 'field.delim'=',')
1
Antworten
Ich nicht klar verstehen den Unterschied zwischen der Verwendung von tHash und tBuffer Komponenten in Talend. Ich bin auf der Suche auf speichern das Ergebnis einer tMap-in Impala-Tabelle und eine Kopie im Arbeitsspeicher (cache) und andere Transformationen
1
Antworten
Dies ist mein Erster Beitrag. hoffe, ich werde klar sein 🙂 Ich versuche zu laufen impala (mit Farbton), wird die nächste Abfrage in der 2 version. Version 1 (Gruppe 1): SELECT payment_method, (CASE WHEN price <= 1000
2
Antworten
Ich bin mit SQL in Impala zu schreiben, diese Abfrage. Ich werde versuchen, zu konvertieren eines Datums-Strings, gespeichert im format JJJJMMTT in ein Datum-format für die Zwecke der Ausführung einer Abfrage wie diese: SELECT datadate, session_info FROM
2
Antworten
Bin ich immer die folgende Fehlermeldung beim ausführen von Abfragen für eine Datenbank im impala. Mit anderen Datenbanken seine Arbeitsmethoden in Ordnung. Fehler-trace ist wie folgt. [Simba][ImpalaJDBCDriver](500051) ERROR processing query/statement. Error Code: select * from test_table limit
2
Antworten
Wie kann ich umwandeln einer string Vertretung Datum /Uhrzeit in das format "YYYY-MM-DD;HH:MM:SS" (d.h. 2016-04-11;19:38:01), um eine ordnungsgemäße timestamp? Ich dachte, das würde funktionieren, aber es funktioniert nicht. select from_unixtime(unix_timestamp(`date`, "YYYY-MM-DD;HH:MM:SS")) from t1 limit 100; Dies gibt
2
Antworten
Arbeite ich mit Impala und das abrufen der Liste der Tabellen aus der Datenbank mit einige Muster wie unten. Angenommen ich habe eine Datenbank bank und Tabellen unter dieser Datenbank sind wie unten. cust_profile cust_quarter1_transaction cust_quarter2_transaction product_cust_xyz
1
Antworten
Sah ich unter diesem link die auf Impala version 1.1: Seit Impala 1.1, REFRESH-Anweisung funktioniert nur für bestehende Tabellen. Für neue Tabellen, die Sie brauchen, um Problem "zu ENTKRÄFTEN METADATEN" - Anweisung. Tut dies immer noch wahr
2
Antworten
Möchte ich schließen MetaStore mit dem java-code. Ich habe keine Ahnung, wie set-Konfiguration Einstellung in Hive-Site.xml Datei und wo poste ich den Hive-Site.xml Datei. Bitte helfen Sie. import java.sql.Connection; import java.sql.DriverManager; import java.sql.ResultSet; import java.sql.Statement; import org.apache.hadoop.fs.Path;
1
Antworten
Was ist die Kombination von Treiber und jdbc-URL für CDH5 (ich bin auf CDH5.3)? Habe ich versucht, ein paar darunter: jdbc:hive2://myserver:21050/;auth=noSasl Sowie die folgenden Treiber: org.apache.hive.jdbc.HiveDriver Habe ich Hinzugefügt, /opt/cloudera/parcels/CDH/lib/impala/lib/*:/opt/cloudera/parcels/CDH/lib/hive/lib/* dem Klassenpfad (aber immer noch kein Erfolg)
4
Antworten
Ich habe einen Anwendungsfall, in dem ich ROW_NUMBER() over PARTITION: So etwas wie: SELECT Column1 , Column 2 ROW_NUMBER() OVER ( PARTITION BY ACCOUNT_NUM ORDER BY FREQ, MAN, MODEL) as LEVEL FROM TEST_TABLE Ich brauche einen workaround
4
Antworten
Bin ich versucht zu installieren, cloudera impala auf meinem lokalen Rechner (32-bit-ubuntu) ohne cloudera manager(Sie don ' T-Unterstützung auf 32-bit-ubuntu, habe ich auch versucht und sind gescheitert). Ich haben versucht folgenden Befehle herunterladen, die impala aus dem
2
Antworten
Gibt es eine Möglichkeit, führen Sie die impala-shell-SQL-Skript mit Parametern? Beispiel: impala-shell -f /home/john/sql/load.sql /dir1/dir2/dir3/data_file Ich habe Fehler: Fehler, konnte nicht analysiert Argumente "-f /home/john/sql/laden.sql /dir1/dir2/dir3/data_file" InformationsquelleAutor johnsam | 2015-02-09
3
Antworten
Muss ich Rang Zeilen von partition (oder Gruppe), d.h. wenn meine Quell-Tabelle ist: NAME PRICE ---- ----- AAA 1.59 AAA 2.00 AAA 0.75 BBB 3.48 BBB 2.19 BBB 0.99 BBB 2.50 Ich würde gerne Zieltabelle: RANK NAME
1
Antworten
Ich habe versucht, schreiben Sie ein R-Skript zur Abfrage Impala-Datenbank. Hier ist die Abfrage an die Datenbank: select columnA, max(columnB) from databaseA.tableA where columnC in (select distinct(columnC) from databaseB.tableB ) group by columnA order by columnA Wenn
4
Antworten
Habe ich Standard-db-hive-Tabelle, die enthält 80 Tischen . Ich habe eine weitere Datenbank und ich möchten, kopieren Sie alle Tabellen aus Standard-DB auf neuen Datenbanken. Gibt es eine Möglichkeit, ich kann das kopieren von Einer DB in
2
Antworten
Ich versuche Abfrage hbase Daten durch hive (ich bin mit cloudera). Ich habe eine fiew externen hive-Tabelle verweist, hbase, aber die Sache ist die Cloudera - Impala keinen Zugriff auf alle Tabellen. Alle externen hive-Tabellen erscheinen in
3
Antworten
Ich habe vor kurzem angefangen, Blick in die Abfrage großer Mengen von CSV-Daten liegen auf HDFS mit Hive und Impala. Wie ich erwartet hatte, bekomme ich eine bessere Reaktionszeit mit Impala im Vergleich zur Struktur für die
2
Antworten
Ich will ein paar "near real-time" Daten Analyse (OLAP-like) auf die Daten in HDFS. Meine Forschung zeigte, dass die drei genannten Rahmenbedingungen Bericht erhebliche performance-Gewinne im Vergleich zu Apache Hive. Hat jemand praktische Erfahrungen mit einem dieser?