当前位置:   article > 正文

大数据-82 Spark 集群模式启动 Hadoop HDFS Spark 与 HelloWorld!

大数据-82 Spark 集群模式启动 Hadoop HDFS Spark 与 HelloWorld!

点一下关注吧!!!非常感谢!!持续更新!!!

目前已经更新到了:

  • Hadoop(已更完)
  • HDFS(已更完)
  • MapReduce(已更完)
  • Hive(已更完)
  • Flume(已更完)
  • Sqoop(已更完)
  • Zookeeper(已更完)
  • HBase(已更完)
  • Redis (已更完)
  • Kafka(已更完)
  • Spark(正在更新!)

章节内容

上节我们完成了如下的内容:

  • Spark项目下载
  • Spark环境配置、配置文件配置
  • 项目分发 至 h122和h123服务器

在这里插入图片描述

Hadoop 集群启动

在 h121 节点上进行执行,我们启动服务:

start-all.sh
  • 1

启动的结果如下图所示:
在这里插入图片描述

Spark 集群启动

接着我们需要到目录下,启动集群的Spark

cd /opt/servers/spark-2.4.5-bin-without-hadoop-scala-2.12/sbin
./start-all.sh
  • 1
  • 2

h121 节点

通过 jps 我可以可以看到:Master 和 Worker
在这里插入图片描述

h122 节点

通过 jps 我们可以看到:
在这里插入图片描述

h123 节点

通过 jps 我们可也看到:
在这里插入图片描述

查看结果

我们通过查看 h121 的日志,可以看到是 8081 的端口(我的8080好像是被占用了)
这个在Spark的目录下的 logs下,如果你也遇到了无法访问,可以看看这个logs
在这里插入图片描述

测试运行

这里Spark提供了一个官方的HelloWorld(前提你配置好环境变量,不然你需要到指定目录执行)

run-example SparkPi 10
  • 1

在这里插入图片描述
可以看到如下的结果为:
在这里插入图片描述

SparkShell

我们可以简单的启动一个Shell来测试Spark的效果:
(后续有更深入的学习!)

spark-shell --master local-cluster[*]
  • 1

这里有一些之前测试的图片:
在这里插入图片描述

先不管别的,先写一段感受一下:

val rdd1 = sc.makeRDD(1 to 100).map((_, 1))
rdd1.getNumPartitions
  • 1
  • 2

在这里插入图片描述

本文内容由网友自发贡献,转载请注明出处:【wpsshop博客】
推荐阅读
相关标签
  

闽ICP备14008679号