当前位置:   article > 正文

Linux(基于CentOS7)单机版Spark环境搭建_linux yum install spark

linux yum install spark

目录

1.安装Python3.7版本

2.安装Spark与JDK

3.启动SPARK


1.安装Python3.7版本

 1.首先安装gcc编译器,gcc有些系统版本已经默认安装,通过 gcc --version 查看,没安装的先安装gcc,yum -y install gcch

2.安装其它依赖包,此步为必要性操作。

yum -y install zlib-devel bzip2-devel openssl-devel ncurses-devel sqlite-devel readline-devel tk-devel gdbm-devel db4-devel libpcap-devel xz-devel libffi-devel

或者使用yum -y groupinstall "Development tools 命令把所有开发环境的依赖包安装好

3.下载python3.7.x源码,根据需求下载,到官网https://www.python.org/downloads/source/上进行下载,下载taz格式的压缩包文件,然后对压缩包上传至linux服务器

也可以使用wget https://www.python.org/ftp/python/3.7.3/Python-3.7.3.tgz 直接进行安装,注意看自己所处的目录,如果想安装到其他目录也可以

例如,我的下载地址为 /opt/software/

wget https://www.python.org/ftp/python/3.7.3/Python-3.7.3.tgz /opt/software/

如若此处下载过慢,可以使用国内镜像源

ll一下 发现我们的python压缩包已经下载好了

 

4.解压python3.7.3 解压命令为: tar -zxvf Pyhon-3.7.3.tgz -C /opt/moudule  这是我的解压路径 -C参数表示指定安装路径
5.建立一个空文件夹,用于存放python3程序      mkdir /usr/local/python3 
6.执行配置文件,编译,编译安装 
  1. cd Python-3.7.3
  2. ./configure --prefix=/usr/local/python3
  3. make && make install

7.建立软连接(因为Centos7已经自带python2版本,所以我们要下载python3并建立软连接并进行区别)

  1. ln -s /usr/local/python3/bin/python3.7 /usr/bin/python3
  2. ln -s /usr/local/python3/bin/pip3.7 /usr/bin/pip3

8.测试一下python3是否已经安装好并可用

 

此时出现版本信息,OK安装完成

 

2.安装Spark与JDK

 1.下载Spark与JDK安装包并解压,方法同上,这里我不再赘述

 这里我使用的是jdk1.8.0与spark3.2

2.配置JDK环境变量,这里我的安装目录为/opt/module

新建/etc/profile.d/my_env.sh文件(注:my_env.sh,关键是.sh后缀,名称任取)

vim /etc/profile.d/my_env.sh

添加如下内容

  1. #JAVA_HOME
  2. export JAVA_HOME=/opt/module/jdk1.8.0_212
  3. export PATH=$PATH:$JAVA_HOME/bin

保存并退出,然后我们  source /etc/profile  一下,让新的环境变量PATH生效

最后我们 java -version一下看看是否环境配置成功

入股

如果此时未出现java版本信息可以reboot一下

2.配置SPARK环境变量,这里我的安装目录为/opt/module

首先,我们进入spark安装目录下的conf子目录

 

 修改配置文件spark-env.sh,注意,这个文件默认不存在,这里有spark-env.sh.template,复制一份并命名新文件为spark-env.sh

cp spark-vev.sh.template spark-env.sh

 

 查看之前的JAVA_HOME路径,在下一步中使用

修改文件spark-env.sh,在文件末尾添加如下内容:

  1. #export SCALA_HOME=/opt/scala-2.13.0
  2. export JAVA_HOME=/opt/moudle/jdk1.8.0_115 #这里是你jdk的安装路径
  3. export SPARK_HOME=/opt/moudle/spark-2.3.1 #这里是你spark的安装路径
  4. export SPARK_MASTER_IP=XXX.XX.XX.XXX #将这里的xxx改为自己的Linux的ip地址
  5. #export SPARK_EXECUTOR_MEMORY=512M
  6. #export SPARK_WORKER_MEMORY=1G
  7. #export master=spark://XXX.XX.XX.XXX:7070

 新建workers配置文件(子节点配置文件):

        进入spark的conf目录下:cd  /opt/module/spark-3.2.0-bin-hadoop2.7/conf

 

           copy一份slaves:cp  workers.template workers

          然后进入vim编辑模式:vim  workers,会提示文件已存在,输入“e”进入编辑模式即可。

         在文件的最后加上如下配置:localhost


 

如果已有则不需要添加 

3.启动SPARK

1.进入spark的sbin目录:cd  sbin/

2.启动spark集群(单机版): ./start-all.sh

然后等待,如果没有报错,然后我们jps一下

 发送JPS与Mster 与Worker都成功启动,说明SPARK配置成功

接下来我们就可以用Windows的pycharm连接linux进行编程作业啦!

本文内容由网友自发贡献,转载请注明出处:https://www.wpsshop.cn/w/小桥流水78/article/detail/922447
推荐阅读
相关标签
  

闽ICP备14008679号