赞
踩
首先需要安装Java JDK,Spark运行需要Java 8或以上版本。可以从Oracle官网下载Java JDK安装包,安装过程中需要设置环境变量JAVA_HOME.
JAVA_HOME | C:\java\jdk1.8.0_201 |
在PATH中添加 | %JAVA_HOME%\bin |
在Spark官网下载Spark二进制包,选择适合自己系统的版本,下载后解压到本地目录。
注意:如果下载的Spark版本>=2.3,建议进一步添加环境变量SPARK_LOCAL_HOSTNAME,值为localhost
系统环境变量中 | 添加SPARK_HOME | 值为Spark解压后的目录路径 如:D:\spark |
在Path中 | %SPARK_HOME%\bin | %SPARK_HOME%\sbin |
在环境变量配置完之后再进行文件配置:
1.进入Spark的配置目录conf,复制一个log4j.properties.template文件并命名为log4j.properties,打开log4j.properties文件,进行如下修改
将配置文件中的:# log4j.rootCategory=INFO, console
修改为:log4j.rootCategory=WARN, console
2.在Spark的配置目录conf,复制一个spark-env.sh.template文件并命名为spark-env.sh,打开并增加以下一行代码。
SPARK_LOCAL_IP = 127.0.0.1
如果使用Hadoop作为分布式文件系统,需要配置Hadoop环境变量.
系统环境变量中 | HADOOP_HOME | 值为Hadoop解压后的目录路径, 如:D:\A1,hadoop3.1.0\hadoop |
在Path中 | %HADOOP_HOME%\bin |
win+R打开命令行窗口,输入spark-shell,如果出现Spark的交互式Shell,则说明Spark安装成功。
可以使用Eclipse或IntelliJ IDEA等IDE进行Spark开发,需要安装Scala插件和Spark插件。
安装步骤:
1.安装Scala插件:在IDE中选择菜单Help -> Eclipse Marketplace,搜索Scala插件,安装后重启IDE。
2.安装Spark插件:在IDE中选择菜单File -> Settings -> Plugins,搜索Spark插件,安装后重启IDE。
完成以上步骤后,就可以开始Spark开发了。可以使用Spark Shell或IDE进行开发和调试,也可以使用maven或sbt等构建工具进行项目管理和打包。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。