当前位置:   article > 正文

spark-在IDEA中搭建scala编程环境_idea spark scala

idea spark scala

第一步,新建maven工程,配置pom.xml(配置依赖时,要注意spark版本的对应,在最后说明)

  1. <dependencies>
  2. <!-- https://mvnrepository.com/artifact/org.scala-lang/scala-library -->
  3. <dependency>
  4. <groupId>org.scala-lang</groupId>
  5. <artifactId>scala-library</artifactId>
  6. <version>2.12.4</version>
  7. </dependency>
  8. <dependency>
  9. <groupId>org.apache.spark</groupId>
  10. <artifactId>spark-core_2.12</artifactId>
  11. <version>2.4.4</version>
  12. </dependency>
  13. <dependency>
  14. <groupId>org.apache.spark</groupId>
  15. <artifactId>spark-streaming_2.12</artifactId>
  16. <version>2.4.4</version>
  17. </dependency>
  18. <dependency>
  19. <groupId>com.github.scopt</groupId>
  20. <artifactId>scopt_2.12</artifactId>
  21. <version>3.5.0</version>
  22. </dependency>
  23. </dependencies>

    

第二步,在idea上下载scala-sdk。(2.12.4)(如果已经添加了就不用再添加)

点击 Add Framework Support        

选择Scala,点击Create,选择2.12.4版本,最后点击DownLoad下载 

第三步,开启spark

 首先cd命令进入spark所在的目录。

        然后启动spark,命令为 

bin/spark-shell

图示即为启动成功

 第四步,在main下新建scala文件夹,并设置成为Source Root

第五步,新建scala文件

右键scala文件夹,new中找到Scala Class并点击

随便取一个名称,Kind里面选择Object,然后ok即创建成功 

第六步,创建启动环境

         在刚刚新建的scala文件中输入代码:(注意 object 后面的对象名字,和scala的文件名称保持一致

  1. import org.apache.spark.{SparkConf, SparkContext} //import spark包
  2. object scala_test {
  3. def main(args: Array[String]): Unit = {
  4. //1.初始化spark配置信息并建立与spark的连接
  5. val sparkConf = new SparkConf().setMaster("local[*]").setAppName("bigdata01")
  6. val sc = new SparkContext(sparkConf)
  7. val rdd = sc.parallelize(Array(1,2,3)) //创建rdd
  8. rdd.collect().foreach(println) //输出rdd
  9. sc.stop() //关闭与spark的连接,必须关闭,否则无输出结果
  10. }
  11. }

运行此代码,会自动创建一个启动环境。

第七步,在idea中添加连接spark的启动环境

选择Run,点击 Edit Configurations

在Vm options里添加-Dspark.master=spark://spark所在的电脑ip地址:端口号 ,这里的IP地址和端口可以在启动spark后,通过浏览器访问spark界面得到,一般访问spark页面的路径为 ip:8080 或者 ip:8081

可以从spark的页面中得到连接端口,我的为7077端口

得到端口便在VM options中输入 -Dspark.master=spark://spark所在的电脑ip地址:端口号

设置完成后点击 Apply 即可(若在web端页面找不到端口,直接填写4040端口)

第八步,测试scala是否搭建成功

         在刚刚新建的scala文件中输入代码:(注意 object 后面的对象名字,和scala的文件名称保持一致

如果输出了1,2,3,那就代表连接spark成功,也可以在此文件中进行rdd编程

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/知新_RL/article/detail/501071
推荐阅读
相关标签
  

闽ICP备14008679号