当前位置:   article > 正文

Spark将Dataframe数据写入Hive分区表的方案_spark dataframe写入hive

spark dataframe写入hive

《2021年最新版大数据面试题全面开启更新》

《2021年最新版大数据面试题全面开启更新》

 

DataFrame 将数据写入hive中时,默认的是hive默认数据库,insert into没有指定数据库的参数,数据写入hive表或者hive表分区中:

 

1、将DataFrame数据写入到hive表中

 

从DataFrame类中可以看到与hive表有关的写入API有一下几个:

 
  1. registerTempTable(tableName:String):Unit,
  2. inserInto(tableName:String):Unit
  3. insertInto(tableName:String,overwrite:Boolean):Unit
  4. saveAsTable(tableName:String,source:String,mode:SaveMode,options:Map[String,String]):Unit

有很多重载函数,不一一列举

registerTempTable函数是创建spark临时表

insertInto函数是向表中写入数据,可以看出此函数不能指定数据库和分区等信息,不可以直接写入。

向hive数据仓库写入数据必须指定数据库,hive数据表建立可以在hive上建立,或者使用hiveContext.sql("create table .....")

下面语句是向指定数据库数据表中写入数据:

 
  1. case class Person(name:String,col1:Int,col2:String)
  2. val sc = new org.apache.spark.SparkContext
  3. val hiveContext = new org.apache.spark.sql.hive.HiveContext(sc)
  4. import hiveContext.implicits._
  5. hiveContext.sql("use DataBaseName")
  6. val data = sc.textFile("path").map(x=>x.split("\\s+")).map(x=>Person(x(0),x(1).toInt,x(2)))
  7. data.toDF().insertInto("tableName")

 

创建一个case类将RDD中数据类型转为case类类型,然后通过toDF转换DataFrame,调用insertInto函数时,首先指定数据库,使用的是hiveContext.sql("use DataBaseName") 语句,就可以将DataFrame数据写入hive数据表中了。

 

2、将DataFrame数据写入hive指定数据表的分区中

 

hive数据表建立可以在hive上建立,或者使用hiveContext.sql("create table....") ,使用saveAsTable时数据存储格式有限,默认格式为parquet,将数据写入分区的思路是:首先将DataFrame数据写入临时表,之后由hiveContext.sql语句将数据写入hive分区表中,具体操作如下:

 
  1. case class Person(name:String,col1:Int,col2:String)
  2. val sc = new org.apache.spark.SparkContext
  3. val hiveContext = new org.apache.spark.sql.hive.HiveContext(sc)
  4. import hiveContext.implicits._
  5. hiveContext.sql("use DataBaseName")
  6. val data = sc.textFile("path").map(x=>x.split("\\s+")).map(x=>Person(x(0),x(1).toInt,x(2)))
  7. data.toDF().registerTempTable("table1")
  8. hiveContext.sql("insert into table2 partition(date='2015-04-02') select name,col1,col2 from table1")

上面代码是spark版本1.6

 

下面代码是spark版本2.0及以上版本

 
  1. val session = SparkSession.builder().appName("WarehouseInventoryByNewMysqlSnap").enableHiveSupport().getOrCreate()
  2. val sc: SparkContext=session.sparkContext
  3. session.sql("use bi_work")
  4. import session.implicits._
  5. val data = sc.textFile("path").map(x=>x.split("\\s+")).map(x=>Person(x(0),x(1).toInt,x(2)))
  6. data.toDF().registerTempTable("table1")
  7. session.sql("insert into table2 partition(date='2015-04-02') select name,col1,col2 from table1")

这边捎带介绍一下hive创建分区表:

hive分区表:是指在创建表时指定的partition的分区空间,若需要创建有分区的表,需要在create表的时候调用可选参数partitioned by。

注意:

  • 一个表可以拥有一个或者多个分区,每个分区以文件夹的形式单独存在表文件夹的目录下

  • hive的表和列名不区分大小写

  • 分区是以字段的形式在表的结构中存在,通过desc table_name 命令可以查看到字段存在,该字段是分区的标识

  • 建表的语句:

 
  1. CREATE EXTERNAL TABLE bi_work.`dw_inventory_snap`
  2. (`warehouse_id` string COMMENT '',
  3. `internal_id` string COMMENT '',
  4. `logical_inventory` string COMMENT '',
  5. `create_time` timestamp COMMENT '')
  6. PARTITIONED BY (`snap_time` string) --指定分区
  7. row format delimited fields terminated by '\t'

 

— THE END —

640?wx_fmt=jpeg

◤半年文章精选系列◥

Flink从入门到放弃之源码解析系列

大数据成神之路-基础篇

大数据成神之路-进阶篇

Flink入门系列

Flink高级进阶

Hadoop生态圈系列

实时计算系列(spark、kafka等)

规范和系统设计

杂谈

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/花生_TL007/article/detail/644161
推荐阅读
相关标签
  

闽ICP备14008679号