赞
踩
上节我们完成了如下的内容:
在 h121 节点上进行执行,我们启动服务:
start-all.sh
启动的结果如下图所示:
接着我们需要到目录下,启动集群的Spark
cd /opt/servers/spark-2.4.5-bin-without-hadoop-scala-2.12/sbin
./start-all.sh
通过 jps 我可以可以看到:Master 和 Worker
通过 jps 我们可以看到:
通过 jps 我们可也看到:
我们通过查看 h121 的日志,可以看到是 8081 的端口(我的8080好像是被占用了)
这个在Spark的目录下的 logs下,如果你也遇到了无法访问,可以看看这个logs
这里Spark提供了一个官方的HelloWorld(前提你配置好环境变量,不然你需要到指定目录执行)
run-example SparkPi 10
可以看到如下的结果为:
我们可以简单的启动一个Shell来测试Spark的效果:
(后续有更深入的学习!)
spark-shell --master local-cluster[*]
这里有一些之前测试的图片:
先不管别的,先写一段感受一下:
val rdd1 = sc.makeRDD(1 to 100).map((_, 1))
rdd1.getNumPartitions
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。