赞
踩
1. 报错原因:运行Spark时需要Hadoop的环境支持。
2. 解决方法:在windows上配置hadoop环境然后重启idea即可解决。
3. 解决步骤:
3.1 在官网上下载所需要的Hadoop的版本,然后解压到任意盘符下,路径不能有中文或者空格,下载链接:Index of /dist/hadoop/common/hadoop-3.3.0 (apache.org)
3.2 配置hadoop环境变量
3.3 将 hadoop.dll 和 winutils.exe 两个文件弄到bin目录下
对应文件请链接自取,找自己所对应的版本号,我的是版本是3.3.0,我用的是3.3.5版本的也可以,自行类比。
https://gitee.com/systemwjp/dll-and-exe-file.git
3.4 cmd查看hadoop版本
hadoop version
3.5 重启idea重新运行即可
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。