Erstellen pyspark kernel für Jupyter

Ich war auf der Suche auf Apache Toree zu verwenden, wie Pyspark kernel für Jupyter

https://github.com/apache/incubator-toree

Allerdings war es mit älteren version von Spark (1.5.1 vs aktuelle 1.6.0). Ich habe versucht, diese Methode hier http://arnesund.com/2015/09/21/spark-cluster-on-openstack-with-multi-user-jupyter-notebook/ durch die Schaffung kernel.js

{
 "display_name": "PySpark",
 "language": "python",
 "argv": [
  "/usr/bin/python",
  "-m",
  "ipykernel",
  "-f",
  "{connection_file}"
 ],
 "env": {
  "SPARK_HOME": "/usr/local/Cellar/apache-spark/1.6.0/libexec",
  "PYTHONPATH": "/usr/local/Cellar/apache-spark/1.6.0/libexec/python/:/usr/local/Cellar/apache-spark/1.6.0/libexec/python/lib/py4j-0.9-src.zip",
  "PYTHONSTARTUP": "/usr/local/Cellar/apache-spark/1.6.0/libexec/python/pyspark/shell.py",
  "PYSPARK_SUBMIT_ARGS": "--master local[*] pyspark-shell"
 }
}

Allerdings bekam ich einige Probleme:

  1. Gibt es keine /jupyter/kernels Pfad in meinem Mac. Also ich landete diesem Weg ~/.jupyter/kernels/pyspark. Ich bin nicht sicher, ob das ist der richtige Weg.

  2. Selbst nachdem Sie alle Pfade korrekt, ich verstehe immer noch nicht PySpark zeigt sich als kernel-innen Jupyter.

Hab ich was verpasst?

InformationsquelleAutor HP. | 2016-01-25
Schreibe einen Kommentar