赞
踩
本篇譯自:How to run Scala and Spark in the Jupyter notebook,文中介紹了從安裝套件、創建Kernel spec,到啟動jupyter notebook及測試Scala程式的完整流程。
pip install spylon-kernel
原文中並沒有說明Kernel spec是什麼,到Making kernels for Jupyter - kernel-specs查詢後,個人將之理解為每個kernel的id。
python -m spylon_kernel install
經過這一步以後,我們就可以在notebook中選擇scala當作kernel。
ipython notebook
#or jupyter notebook
接著在jupyter notebook起始畫面中選擇New -> spylon-kernel,
我們可以看到它啟動了SparkContext跟SparkSession。
如果執行失敗,請使用以下指令檢查SPARK_HOME這個環境變量是否存在。
接著可以來創建一個dataset:
如果想要執行python也是辦得到的,只要在當前cell最前面加上%%python
即可:
如果想要更了解spylon-kernel可以拜訪他們的Github網頁:Valassis-Digital-Media/spylon-kernel。
文章中用到的notebook則可以在BogdanCojocar/medium-articles找到。
How to run Scala and Spark in the Jupyter notebook
Making kernels for Jupyter - kernel-specs
Valassis-Digital-Media/spylon-kernel
BogdanCojocar/medium-articles
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。