当前位置:   article > 正文

spark读写csv文件_spark write csv

spark write csv

如果是spark1.6.0请添加maven

  1. <dependency>
  2. <groupId>com.databricks</groupId>
  3. <artifactId>spark-csv_2.10</artifactId>
  4. <version>1.4.0</version>
  5. <scope>compile</scope>
  6. </dependency>

如果是spark2.0+就不用添加maven了,因为spark2.0内部集成了读写csv文件。

  1. package com.egridcloud.spark
  2. import org.apache.spark.sql.{DataFrame, SQLContext}
  3. import org.apache.spark.{SparkConf, SparkContext}
  4. /**
  5. * Created by LHX on 2018/3/20 13:26.
  6. */
  7. object SparkReadFile {
  8. def main(args: Array[String]): Unit = {
  9. val localpath="D:\\input\\word.csv"
  10. val outpath="D:\\output\\word2"
  11. val conf = new SparkConf()
  12. conf.setAppName("SparkReadFile")
  13. conf.setMaster("local")
  14. val sparkContext = new SparkContext(conf)
  15. val sqlContext = new SQLContext(sparkContext)
  16. //读csv文件
  17. val data: DataFrame = sqlContext.read.format("com.databricks.spark.csv")
  18. .option("header", "false") //在csv第一行有属性"true",没有就是"false"
  19. .option("inferSchema", true.toString) //这是自动推断属性列的数据类型
  20. .load(localpath)
  21. // data.show()
  22. // 写csv文件
  23. data.repartition(1).write.format("com.databricks.spark.csv")
  24. .option("header", "false")//在csv第一行有属性"true",没有就是"false"
  25. .option("delimiter",",")//默认以","分割
  26. .save(outpath)
  27. sparkContext.stop()
  28. }
  29. }

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/知新_RL/article/detail/474611
推荐阅读
相关标签
  

闽ICP备14008679号