当前位置:   article > 正文

spark3.0.0单机模式安装

spark3.0.0单机模式安装

注:此安装教程基于hadoop3集群版本

下载安装包

下载spark3.0.0版本,hadoop和spark版本要对应,否则会不兼容

用xftp上传Linux虚拟机,上传目录/bigdata(可修改)

解压

tar -zxvf /bigdata/spark-3.0.0-bin-hadoop3.2.tgz 

 添加软链接(可选)

ln -s /bigdata/spark-3.0.0-bin-hadoop3.2.tgz  /bigdata/spark

修改环境变量 

  1. sudo vim /etc/profile
  2. export SPARK_HOME=/bigdata/spark
  3. export $PATH:$SPARK_HOME/bin

别忘记source /etc/profile 

修改spark配置文件

  1. cd /bigdata/spark
  2. cp ./conf/spark-env.sh.template ./conf/spark-env.sh
  3. vim ./conf/spark-env.sh

 添加以下内容,/bigdata/hadoop就是hadoop的路径,可根据自己的实际情况修改

export SPARK_DIST_CLASSPATH=$(/bigdata/hadoop/bin/hadoop classpath)

验证是否安装成功

run-example SparkPi 2>&1 | grep "Pi is" 

这是一个求Π的示例程序,输出如下

 打开spark shell终端

spark-shell

如下图

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/我家自动化/article/detail/485087
推荐阅读
相关标签
  

闽ICP备14008679号