当前位置:   article > 正文

Ubuntu安装Scala2.12.13+spark2.4.3_ubantu下载scala 2.12

ubantu下载scala 2.12

百度网盘下载 大数据平台搭建 文件

一、Scala 2.12.13安装

1、下载Scala,并查看其路径

在这里插入图片描述

2、安装Scala并配置环境

(1)将下载的scala文件解压到/usr/local目录下并修改文件名为scala

sudo tar -zxf /home/zhuyuze/下载/scala-2.12.13.tgz -C /usr/local
cd /usr/local
sudo mv ./scala-2.12.13/ ./scala
  • 1
  • 2
  • 3

(2)配置环境变量

vim ~/.bashrc
  • 1
在文件最后输入以下代码(输入前先输入i)并保存后退出(Esc+:wq)
export SCALA_HOME=/usr/local/scala
export PATH=$SCALA_HOME/bin:$PATH
  • 1
  • 2
使环境变量生效
source ~/.bashrc
  • 1

3、查看Scala版本

scala -version
  • 1

在这里插入图片描述

4、Scala编程

(1)使用scala

scala
  • 1

在这里插入图片描述

(2)退出scala

:quit
  • 1

二、spark安装并配置环境

1、下载安装spark,并查看路径

在这里插入图片描述

2、将spark解压到/usr/local路径下,并将文件名改为spark

sudo tar -zxf /home/zhuyuze/下载/spark-2.4.3-bin-hadoop2.7.tgz -C /usr/local
sudo mv ./spark-2.4.3-bin-hadoop2.7/ ./spark
  • 1
  • 2

3、为解压包创建一个软连接

cd /usr/local
ln -s spark/ spark
  • 1
  • 2

4、修改配置文件

cd spark/conf/
cp spark-env.sh.template spark-env.sh
vim spark-env.sh
  • 1
  • 2
  • 3
在文件最后添加配置内容,配置内容如下(根据自己的具体路径进行修改)
#java
export JAVA_HOME=/usr/lib/jvm/default-java
#hadoop
export HADOOP_HOME=/usr/local/hadoop
export HADOOP_CONF_DIR=/usr/local/hadoop/etc/hadoop
#scala
export SCALA_HOME=/usr/local/scala
#spark
export SPARK_MASTER_IP=计算机名
export SPARK_MASTER_PORT=7077
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
计算机名一定要修改为自己的计算机名,以下图为例(命令行模式)

在这里插入图片描述

翻译一下:用户名@计算机名:当前路径$…
zhuyuze@hadoop:/usr/local$…
此计算机名为hadoop

5、配置环境变量

vim ~/.bashrc
  • 1
在文件最后添加以下代码
export SPARK_HOME=/usr/local/spark
export PATH=$PATH:$SPARK_HOME/bin
  • 1
  • 2
保存使其生效
source ~/.bashrc
  • 1

6、启动spark

/usr/local/spark/sbin/start-all.sh
  • 1

在这里插入图片描述

7、查看进程

jps
  • 1

在这里插入图片描述

8、查看web界面

http://localhost:8080

在这里插入图片描述

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/小桥流水78/article/detail/778605
推荐阅读
相关标签
  

闽ICP备14008679号