赞
踩
spark要hadoop中的yarn调度,spark的输入输出一般也是来自hdfs,所以spark是依赖hadoop的,因为运行需要有hadoop
解决方法:下载hadoop,配置环境变量,重启idea,或者在代码中加入 System.setProperty(“hadoop.home.dir”, “hadoop下载路径”)