赞
踩
Hadoop+spark+jupyter环境搭建顺序请参照:
我们已经实现了Spark on Yarn的搭建,但我们还希望有一个友好的开发界面,也便于展示成果,因此我们选择了jupyter。他的本质就是一个 web app,也支持多种语言,完全满足我们的要求。
1.安装python3
下载包
wget https://www.python.org/ftp/python/3.6.0/Python-3.6.0a1.tar.xz
(自己根据需要选择python版本)
拷贝到想要
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。