赞
踩
我们可以在IDEA中直接运行spark程序,来连接服务器上的HDFS或者是spark集群来跑spark任务。
- val config = new SparkConf().setAppName("WordCount").setMaster("local")
- val sparkContext = new SparkContext(config)
一定要调用setMaster()方法,方法参数设置为local。
之后直接运行主方法就可以运行该程序。
- val config = new SparkConf().setAppName("WordCount").setMaster("spark://zb2:7077")
- .setJars(List("target/sparkdemo-1.0-SNAPSHOT-jar-with-dependencies.jar"))
- .setIfMissing("spark.driver.host", "172.16.72.251")
- val sparkContext = new SparkContext(config)
1. setMaster方法中设置远程spark服务的master地址;
2. setJars方法中传递一个Seq,里面写上jar包的位置(idea中打完jar包的位置);
3. setIfMissing方法中设置spark驱动的机器IP地址,也就是你Windows开发电脑的IP地址。
4. 之后直接运行主方法就可以运行该程序,idea自动打包并发布到远程spark服务器。
注意:你的Windows和虚拟机里面的spark所在的linux系统(或者是linux服务器)必须能够互相ping通才行,而且都得关闭防火墙,因为他们相互之间需要通信。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。