Funke-shell Fehler : Nein Dateisystem für die Regelung: wurde

Wir haben HDInsight Clusters in Azure ausgeführt wird, aber es nicht erlaubt, sich zu drehen edge/gateway-Knoten zum Zeitpunkt der Erstellung des Clusters. Also ich wurde die Schaffung dieser edge - /gateway-Knoten durch die Installation

echo 'deb http://private-repo-1.hortonworks.com/HDP/ubuntu14/2.x/updates/2.4.2.0 HDP main' >> /etc/apt/sources.list.d/HDP.list
echo 'deb http://private-repo-1.hortonworks.com/HDP-UTILS-1.1.0.20/repos/ubuntu14 HDP-UTILS main'  >> /etc/apt/sources.list.d/HDP.list
echo 'deb [arch=amd64] https://apt-mo.trafficmanager.net/repos/azurecore/trusty main' >> /etc/apt/sources.list.d/azure-public-trusty.list
gpg --keyserver pgp.mit.edu --recv-keys B9733A7A07513CAD
gpg -a --export 07513CAD | apt-key add -
gpg --keyserver pgp.mit.edu --recv-keys B02C46DF417A0893
gpg -a --export 417A0893 | apt-key add -
apt-get -y install openjdk-7-jdk
export JAVA_HOME=/usr/lib/jvm/java-7-openjdk-amd64
apt-get -y install hadoop hadoop-hdfs hadoop-yarn hadoop-mapreduce hadoop-client openssl libhdfs0 liblzo2-2 liblzo2-dev hadoop-lzo phoenix hive hive-hcatalog tez mysql-connector-java* oozie oozie-client sqoop flume flume-agent spark spark-python spark-worker spark-yarn-shuffle

Dann kopierte ich /usr/lib/python2.7/dist-packages/hdinsight_common/ /usr/share/java/ /usr/lib/hdinsight-datalake/ /etc/spark/conf/ /etc/hadoop/conf/

Aber wenn ich spark-shell bekomme ich folgenden Fehler

java.io.IOException: No FileSystem for scheme: wasb

Hier ist die vollständige Stapel https://gist.github.com/anonymous/ebb6c9d71865c9c8e125aadbbdd6a5bc

Ich bin nicht sicher, welches Paket/jar fehlt hier.

Jemand hat keine Ahnung, was ich falsch mache ?

Dank

Ich bin auf der Suche nach einer Lösung für ähnliche Probleme. Möglich unterstützen hier: stackoverflow.com/questions/32264020/...

InformationsquelleAutor roy | 2016-07-07

Schreibe einen Kommentar