赞
踩
在 Windows 上安装 Spark 并进行配置需要一些步骤,包括安装必要的软件和配置环境变量。以下是详细的步骤指南:
下载和安装 Java Development Kit (JDK)
配置环境变量
右键点击“此电脑”或“计算机”,选择“属性”。
点击“高级系统设置”。
点击“环境变量”。
在“系统变量”下,点击“新建”,然后添加以下内容:
JAVA_HOME
C:\Program Files\Java\jdk-11.0.10
)找到 Path
变量,选择它并点击“编辑”。在变量值的末尾添加以下内容:%JAVA_HOME%\bin
下载 Hadoop 二进制文件
hadoop-3.3.1.tar.gz
。C:\hadoop-3.3.1
。配置 Hadoop 环境变量
回到“环境变量”窗口,点击“新建”,然后添加以下内容:
HADOOP_HOME
C:\hadoop-3.3.1
)编辑 Path
变量,在变量值的末尾添加以下内容:%HADOOP_HOME%\bin
配置 Hadoop Winutils
winutils.exe
放到 C:\hadoop-3.3.1\bin
目录下。下载 Spark
spark-3.1.2-bin-hadoop3.2.tgz
。C:\spark-3.1.2-bin-hadoop3.2
。配置 Spark 环境变量
回到“环境变量”窗口,点击“新建”,然后添加以下内容:
SPARK_HOME
C:\spark-3.1.2-bin-hadoop3.2
)编辑 Path
变量,在变量值的末尾添加以下内容:%SPARK_HOME%\bin
打开命令提示符
Win + R
打开“运行”窗口,输入 cmd
并按 Enter
。验证 Java 安装
java -version
验证 Hadoop 安装
hadoop version
验证 Spark 安装
spark-shell
cd C:\spark-3.1.2-bin-hadoop3.2
bin\spark-submit --class org.apache.spark.examples.SparkPi examples\jars\spark-examples_2.12-3.1.2.jar 10
通过以上步骤,你已经在 Windows 系统上成功安装并配置了 Spark,可以开始进行分布式数据处理和分析任务。如果在安装过程中遇到问题,请确保每一步的环境变量配置和软件版本匹配。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。