当前位置:   article > 正文

Hadoop+spark+jupyter环境搭建(三):Pyspark+jupyter部署在Linux_jupyer pyspark on yarn

jupyer pyspark on yarn

Hadoop+spark+jupyter环境搭建顺序请参照:

Hadoop平台的搭建接

基于Hadoop组件Yarn搭建Spark

pyspark+jupyter部署在Linux

    我们已经实现了Spark  on Yarn的搭建,但我们还希望有一个友好的开发界面,也便于展示成果,因此我们选择了jupyter。他的本质就是一个 web app,也支持多种语言,完全满足我们的要求。

1.安装python3

下载包

wget https://www.python.org/ftp/python/3.6.0/Python-3.6.0a1.tar.xz

(自己根据需要选择python版本)

拷贝到想要

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/凡人多烦事01/article/detail/523066
推荐阅读
相关标签
  

闽ICP备14008679号