当前位置:   article > 正文

Hadoop安装spark教程_spark-3.4.2-bin-hadoop3.tgz

spark-3.4.2-bin-hadoop3.tgz

1.将下载后的安装包上传到文件夹下

2.解压:

tar -zxvf spark-3.0.0-bin-hadoop3.2.tgz

3.设置环境变量:

  1. vim /etc/profile
  2. //添加如下内容
  3. export SPARK_HOME=/opt/spark/spark-3.0.0-bin-hadoop3.2
  4. export PATH=$PATH:$SPARK_HOME/bin

使配置生效:

source /etc/profile

4.修改配置:

  1. #进入/spark-3.0.0/conf复制以下几个文件
  2. # cp spark-defaults.conf.template spark-defaults.conf
  3. # cp slaves.template slaves
  4. # cp spark-env.sh.template spark-env.sh
  5. #修改spark-defaults.conf启用yarn模式
  6. spark.master yarn
  7. #在sbin的目录下的spark-config.sh 文件下未添加JAVA_HOME的索引
  8. #在该配置文件下添加 : export JAVA_HOME=/opt/java/jdk1.8.0_121

5.启动:

  1. #进入/spark-3.0.0/sbin,启动spark
  2. # ./start-all.sh

6.浏览器访问spark master默认地址:http://192.168.134.132:8080/

如果打不开网址:防火墙未关。

解决办法:

systemctl   stop   firewalld.service

打开效果图:

7.输入:jps

多了一个master和worker

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/weixin_40725706/article/detail/551096
推荐阅读
相关标签
  

闽ICP备14008679号