赞
踩
tar -zxvf spark-3.0.0-bin-hadoop3.2.tgz -C /opt/module
解压。bin/spark-shell
启动sparksc.textFile("data/word.txt").flatMap(_.split(" ")).map((_,1)).reduceByKey(_+_).collect
来就算文件中的单词解压缩文件
修改配置文件
mv slaves.template slaves
mv spark-env.sh.template spark-env.sh
xsync 目录
启动集群:sbin/start-all.sh
查看三台服务器是否已经启动:
可以在网站上观看资源webUI界面:http://hadoop102:8080
配置成功之后,就可以测试一下,使用命令bin/spark-submit \ --class org.apache.spark.examples.SparkPi \ --master spark://linux1:7077 \ ./examples/jars/spark-examples_2.12-3.0.0.jar \ 10
下面来说一下,上面语句提交任务参数说明
配置历史服务
修改 spark-defaults.conf.template 文件名为 spark-defaults.conf
mv spark-defaults.conf.template spark-defaults.conf
修改 spark-default.conf 文件,配置日志存储路径
修改 spark-env.sh 文件, 添加日志配置
分发配置文件:xsync conf
重新启动集群和历史服务:
重新执行任务
查看历史服务:http://linux1:18080
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。