赞
踩
数据源是:hive,Spark 获取hive中的数据,然后进行SparkSQL的操作 (hive只是作为一个spark的数据源)。
spark on hive 是spark 通过spark-sql 使用hive 语句操作hive ,底层运行的还是 spark rdd.
*(1)就是通过sparksql,加载hive的配置文件,获取到hive的元数据信息
* (2)spark sql获取到hive的元数据信息之后就可以拿到hive的所有表的数据
* (3)接下来就可以通过spark sql来操作hive表中的数据
(数据源是hive本身) Hive 将自己的MapReduce计算引擎替换为Spark,当我们执行HiveSQL(HQL)时底层以经不是将HQL转换为MapReduce任务,而是跑的Spark任务(即:将HQL转换为Spark任务)。
hive on spark是hive 等的执行引擎变成spark , 不再是mapreduce.
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。