当前位置:   article > 正文

伪分布式hadoop+spark+scala搭建

伪分布式hadoop+spark+scala搭建

一、伪分布式hadoop

详情请见:hadoop伪分布式安装-CSDN博客

二、spark

1.将spark安装包上传到linux虚拟机的/opt目录下

2.将spark安装包解压到/usr/local

3.进入解压后的spark安装目录的/conf目录下,复制spark-env.sh.template文件并重命名为spark-env.sh

4.配置环境变量

5.启动spark集群

切换到spark安装目录的/sbin目录下

6.验证

看见worker和master就说明spark集群启动成功

spark-shell

三、scala

1.将scala安装包上传到linux虚拟机的/opt目录下

2.将spark安装包解压到/usr/local

3.配置环境变量

使profile文件更新生效

4.验证

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/Gausst松鼠会/article/detail/541234
推荐阅读
相关标签
  

闽ICP备14008679号