当前位置:   article > 正文

安装spark3.0.0_spark3.0安装

spark3.0安装

在这之前已经在本地安装了hadoop和hive,参考大数据相关整理​​​​​​​

目录

1、下载

2、设置环境变量

3、修改配置

4 、启动

5、确认启动成功

6、执行spark-shell启动&启动遇到的一些问题


1、下载

  1. #下载,地址失效就从官网下载 http://spark.apache.org/downloads.html
  2. $ wget https://mirror.bit.edu.cn/apache/spark/spark-3.0.0/spark-3.0.0-bin-hadoop3.2.tgz
  3. #解压,路径为/Users/zheng/spark/spark-3.0.0
  4. $ tar -zxvf spark-3.0.0-bin-hadoop3.2.tgz
  5. #重命名
  6. $ cp spark-3.0.0-bin-hadoop3.2.tgz spark-3.0.0
  7. #修改权限,这里不修改权限,最后启动spark的时候会报一些文件找不到
  8. $ chmod -R 755 /spark-3.0.0

2、设置环境变量

  1. #设置环境变量
  2. $ vim /etc/profile
  3. #增加一下配置:
  4. export SPARK_HOME=/Users/zheng/spark/spark-3.0.0
  5. export PATH=$PATH:$SPARK_HOME/bin
  6. #保存退出后生效
  7. $ source /etc/profile

3、修改配置

  1. #进入/spark-3.0.0/conf复制以下几个文件
  2. $ mv spark-defaults.conf.template spark-defaults.conf
  3. $ mv slaves.template slaves
  4. $ mv spark-env.sh.template spark-env.sh
  5. #修改spark-defaults.conf启用yarn模式
  6. spark.master yarn

4 、启动

  1. #进入/spark-3.0.0/sbin,启动spark,start-all.sh表示启动所有
  2. $ ./start-all.sh

5、确认启动成功

浏览器访问spark master默认地址:http://localhost:8080/


6、执行spark-shell启动&启动遇到的一些问题

启动的时候遇到了一些问题,详情参看启动spark-shell遇到的一些问题

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/IT小白/article/detail/662683
推荐阅读
相关标签
  

闽ICP备14008679号