当前位置:   article > 正文

【极简spark教程】开始实战_spark sc

spark sc
  1. 目录

    spark-shell

    dos命令行下输入

    引入依赖:

    指定资源:

    自动加载内容​

    显示日志级别

    intellij配置

    修改pom文件添加依赖

    定义spark和sc

    定义spark

    定义sc


    1. spark-shell

    1. dos命令行下输入

      spark-shell

    2. 引入依赖:

      spark-shell --jars /path/myjar1.jar,/path/myjar2.jar

    3. 指定资源:

      spark-shell --master yarn-client --driver-memory 16g --num-executors 60 --executor-memory 20g --executor-cores 2

    4. 自动加载内容

    5. 显示日志级别

      spark.sparkContext.setLogLevel("ERROR")

      ​​​​​​​

  2. intellij配置

    1. 修改pom文件添加依赖

      1. <properties>
      2. <maven.compiler.source>1.8</maven.compiler.source>
      3. <maven.compiler.target>1.8</maven.compiler.target>
      4. <encoding>UTF-8</encoding>
      5. <scala.version>2.11.8</scala.version>
      6. <spark.version>2.2.0</spark.version>
      7. <hadoop.version>2.7.1</hadoop.version>
      8. <scala.compat.version>2.11</scala.compat.version>
      9. </properties>
      10. <!--声明并引入公有的依赖-->
      11.  
      12. <dependencies>
      13. <dependency>
      14. <groupId>org.scala-lang</groupId>
      15. <artifactId>scala-library</artifactId>
      16. <version>${scala.version}</version>
      17. </dependency>
      18. <dependency>
      19. <groupId>org.apache.spark</groupId>
      20. <artifactId>spark-core_2.11</artifactId>
      21. <version>${spark.version}</version>
      22. </dependency>
      23. <dependency>
      24. <groupId>org.apache.hadoop</groupId>
      25. <artifactId>hadoop-client</artifactId>
      26. <version>${hadoop.version}</version>
      27. </dependency>
      28. </dependencies>

  3. 定义spark和sc

    1. 定义spark

      val spark = SparkSession.builder().appName("Word Count").getOrCreate()

    2. 定义sc

      sc = spark.sparkContext()

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/我家自动化/article/detail/816365
推荐阅读
相关标签
  

闽ICP备14008679号