当前位置:   article > 正文

从Intellij IDEA开始第一个Spark程序_idea intellij spark

idea intellij spark

先前在Windows上倒腾了一份Scala的开发环境,然后换到Mac环境上,重新来了一遍,为了防止自己的再度忘记,记录在本博客中。

好,废话不说,开始。

1:Intellij IDEA的安装

习惯用Eclipse了,最近才开始使用Intellij IDEA,感觉功能还是很强大的;这里只讲述具体的安装,我安装的是community版本,2017.3.15的版本,最近更新的社区版本了。

下载地址

里面有windows版本和eclipse版本,我使用的是mac版本。

2:安装scala插件

这个花费了不少的时间,国内的网速实在太慢,下载地址放在此处,资源无法上传,大家只能自己下载了。

链接:https://pan.baidu.com/s/11jw27AnVwS8RfLebdU6ckw  密码:hb5i

具体操作情况如下:


如图所示,打开preference,点击Plugins,接着搜索scala,最新兼容版本是2017.3.11的scala,这个下载非常慢,所以点击从本地安装即可。

注意,这里安装的必须是压缩包,文件夹无法导入的。

安装之后,基本都会让重启的,重启一下即可。

3:开始第一个spark程序

重启之后,新建一个工程,看网上大多说的都是直接新建scala工程,我试了下,很多情况下都会导致运行配置搞不懂,因此自己想了个办法,新建了个Maven工程,如下:


这么新建一个工程之后,我们通过maven就可以很完美地启动一个类了。

点击之后,开始工程的新建:

接着,一路下去,一个maven工程就会创建完毕。

接着,就是我们真正编写一个新的spark工程的代码了。

通常来说,这个逻辑新建的maven工程,都会默认引入junit测试包,不用管它。

4:为我们的maven工程,导入sdk环境

这个环境,可以自己下载,然后让idea自动识别即可,我这边用的是sdk 2.11.0。


注意,是在Global Libraries内导入的Scala sdk。

5:这个导入完毕之后,基本环境就搭建完毕了,接下来,修改pom文件,增添我们的spark-core。

  1. <project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
  2. xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd">
  3. <modelVersion>4.0.0</modelVersion>
  4. <groupId>com.yuzhao.yang</groupId>
  5. <artifactId>secondscala</artifactId>
  6. <version>1.0-SNAPSHOT</version>
  7. <packaging>jar</packaging>
  8. <name>secondscala</name>
  9. <url>http://maven.apache.org</url>
  10. <properties>
  11. <project.build.sourceEncoding>UTF-8</project.build.sourceEncoding>
  12. </properties>
  13. <dependencies>
  14. <dependency>
  15. <groupId>junit</groupId>
  16. <artifactId>junit</artifactId>
  17. <version>3.8.1</version>
  18. <scope>test</scope>
  19. </dependency>
  20. <dependency>
  21. <groupId>org.apache.spark</groupId>
  22. <artifactId>spark-core_2.11</artifactId>
  23. <version>2.2.0</version>
  24. </dependency>
  25. </dependencies>
  26. </project>

6:如此配置文件之后,maven导入完毕,开始第一个scala程序。

  1. package com.yuzhao.yang
  2. import org.apache.spark.{SparkContext, SparkConf}
  3. object AnotherTest {
  4. def main(args: Array[String]): Unit = {
  5. val conf = new SparkConf().setAppName("test").setMaster("local[4]")
  6. val sc = new SparkContext(conf)
  7. val rdd1 = sc.parallelize(List(1,2,3))
  8. print(rdd1.reduce(_+_)
  9. }
  10. }

至此,一个成功的scala环境搭建完毕,可以展开你的spark之旅了。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/从前慢现在也慢/article/detail/589495
推荐阅读
相关标签
  

闽ICP备14008679号