当前位置:   article > 正文

SparkSQL入门案例_structfieldd报错需要引用什么依赖

structfieldd报错需要引用什么依赖

一、将JSON格式的数据转化为table

1、SparkSQL的数据源

SparkSQL的数据源可以是JSON类型的字符串,JDBC,Parquent,Hive,HDFS等。

  1. {"name":"zhangsan","age":20}
  2. {"name":"lisi"}
  3. {"name":"wangwu","age":18}
  4. {"name":"wangwu","age":18}

2、依赖jar包(2.4.4版本有2.11和2.12两种,注意使用的core是哪种)

  1. <dependency>
  2. <groupId>org.apache.spark</groupId>
  3. <artifactId>spark-sql_2.11</artifactId>
  4. <version>2.4.4</version>
  5. </dependency>

 3、scala代码

  1. def main(args: Array[String]): Unit = {
  2. val spark: SparkSession = SparkSession.builder().appName("SQLTest").master("local").getOrCreate()
  3. val df: DataFrame = spark.read.format("json").load("e:\\json")
  4. //打印图表,相当于desc查看表结构
  5. // df.printSchema()
  6. //相当于查询表
  7. // df.show()
  8. //取出表中的值生成RDD
  9. val rdd: RDD[Row] = df.rdd
  10. rdd.foreach(row=>{
  11. val name: Long = row.getAs[Long]("age")
  12. val age: String = row.getAs[String]("name")
  13. println(s"name = $name,age = $age")
  14. })
df.printSchema()打印结果

本文内容由网友自发贡献,转载请注明出处:https://www.wpsshop.cn/w/花生_TL007/article/detail/603611
推荐阅读
  

闽ICP备14008679号