赞
踩
先前在Windows上倒腾了一份Scala的开发环境,然后换到Mac环境上,重新来了一遍,为了防止自己的再度忘记,记录在本博客中。
好,废话不说,开始。
1:Intellij IDEA的安装
习惯用Eclipse了,最近才开始使用Intellij IDEA,感觉功能还是很强大的;这里只讲述具体的安装,我安装的是community版本,2017.3.15的版本,最近更新的社区版本了。
里面有windows版本和eclipse版本,我使用的是mac版本。
2:安装scala插件
这个花费了不少的时间,国内的网速实在太慢,下载地址放在此处,资源无法上传,大家只能自己下载了。
链接:https://pan.baidu.com/s/11jw27AnVwS8RfLebdU6ckw 密码:hb5i
具体操作情况如下:
如图所示,打开preference,点击Plugins,接着搜索scala,最新兼容版本是2017.3.11的scala,这个下载非常慢,所以点击从本地安装即可。
注意,这里安装的必须是压缩包,文件夹无法导入的。
安装之后,基本都会让重启的,重启一下即可。
3:开始第一个spark程序
重启之后,新建一个工程,看网上大多说的都是直接新建scala工程,我试了下,很多情况下都会导致运行配置搞不懂,因此自己想了个办法,新建了个Maven工程,如下:
这么新建一个工程之后,我们通过maven就可以很完美地启动一个类了。
点击之后,开始工程的新建:
接着,一路下去,一个maven工程就会创建完毕。
接着,就是我们真正编写一个新的spark工程的代码了。
通常来说,这个逻辑新建的maven工程,都会默认引入junit测试包,不用管它。
4:为我们的maven工程,导入sdk环境
这个环境,可以自己下载,然后让idea自动识别即可,我这边用的是sdk 2.11.0。
注意,是在Global Libraries内导入的Scala sdk。
5:这个导入完毕之后,基本环境就搭建完毕了,接下来,修改pom文件,增添我们的spark-core。
- <project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
- xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd">
- <modelVersion>4.0.0</modelVersion>
-
- <groupId>com.yuzhao.yang</groupId>
- <artifactId>secondscala</artifactId>
- <version>1.0-SNAPSHOT</version>
- <packaging>jar</packaging>
-
- <name>secondscala</name>
- <url>http://maven.apache.org</url>
- <properties>
- <project.build.sourceEncoding>UTF-8</project.build.sourceEncoding>
- </properties>
-
- <dependencies>
- <dependency>
- <groupId>junit</groupId>
- <artifactId>junit</artifactId>
- <version>3.8.1</version>
- <scope>test</scope>
- </dependency>
- <dependency>
- <groupId>org.apache.spark</groupId>
- <artifactId>spark-core_2.11</artifactId>
- <version>2.2.0</version>
- </dependency>
-
- </dependencies>
- </project>
6:如此配置文件之后,maven导入完毕,开始第一个scala程序。
- package com.yuzhao.yang
- import org.apache.spark.{SparkContext, SparkConf}
- object AnotherTest {
- def main(args: Array[String]): Unit = {
- val conf = new SparkConf().setAppName("test").setMaster("local[4]")
- val sc = new SparkContext(conf)
- val rdd1 = sc.parallelize(List(1,2,3))
- print(rdd1.reduce(_+_)
- }
- }
至此,一个成功的scala环境搭建完毕,可以展开你的spark之旅了。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。