当前位置:   article > 正文

spark 读取本地文件_spark读取本地文件

spark读取本地文件

1 背景

   基于spark 开发程序

   数据放在本地文件中,为text格式

   本文语言案例为java 

 2   步骤

 2.1 搭建工程

    ​​​​​​​ 基于maven搭建spark工程_this is a book的博客-CSDN博客

  2.2 代码示例

  

  1. SparkConf conf = new SparkConf().setAppName("demo").setMaster("local[*]");
  2. SparkSession sparkSession = SparkSession.builder().config(conf).getOrCreate();
  3. JavaSparkContext javaSparkContext = new JavaSparkContext(sparkSession.sparkContext());
  4. JavaRDD<String> rdd = javaSparkContext.textFile(INPUT_PATH);
  5. rdd.foreach(new VoidFunction<String>() {
  6. @Override
  7. public void call(String s) throws Exception {
  8. System.out.println(s);
  9. }
  10. });

 3   注意事项

    如果是放在linux 服务器上,并且跑在spark 上,文件路径需要加这个前缀

    

file:///data/demo.text

  原因是spark一般和hdms组合使用,读取本地文件需要加前缀表明读取的是本地文件

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/煮酒与君饮/article/detail/753481
推荐阅读
相关标签
  

闽ICP备14008679号