当前位置:   article > 正文

Hive On Spark

Hive On Spark

序言

不推荐这种方式,感觉HiveOnSpark的官网更新速度比较慢,同时HiveOnSpark的解决方案需要指定的Spark.Hive 这块并没有很好的做一个封装,造成我们部署中途问题点很多cuiyaonan2000@163.com

参考链接:

  1. https://cwiki.apache.org//confluence/display/Hive/Hive+on+Spark:+Getting+Started

简介

总的来说是将Hive的执行引擎替换成spark.

默认的是MR,且我们在启动Hive的时候会看到如下的内容(所以我们应该用spark来做为执行引擎cuiyaonan2000@163.com)

 既然要换成spark,那我们知道Hadoop自带的Mr是不能用了,且不包含spark的相关服务,所以配置修改,增加spark的jar就是必不可少的工作了.

其原因有一个大家最能说到的就是:HiveOnMr是是把中间结果写入硬盘,而HiveOnSpark是写入内存的cuiyaonan2000@163.com

根据官网的内容我们要注意,HiveOnSpark 的如下两点,

  1. spark放置到Hdfs中的jar不应包含hive的香相关jar
  2. hive on spark 默认基于spark on yarn模式 

Spark与Hive的版本问题

按照官网:

https://cwiki.apache.org//confluence/display/Hive/Hive+on+Spark:+Getting+Started

以及很多的其它博主的分析我们知道,Hive On Spark该分支是在特定的Spark上进行的.所以版本的差异可能决定了你的最终结果cuiyaonan2000@163.com

Hive配置文件

这里只说明针对Hive On MR不一样的的配置信息,其它的先关配置跟Hive On MR是一样的.

  1. <!--Spark依赖的JAR位置,下面会介绍如何上传jar包的hdfs路径-->
  2. <property>
  3. <name>spark.yarn.jars</name>
  4. <value>hdfs://127.0.0.1:8020/spark-jars/*</value>
  5. </property>
  6. <!--Hive执行引擎,使用spark-->
  7. <property>
  8. <name>hive.execution.engine</name>
  9. <value>spark</value>
  10. </property>
  11. <!--Hive连接spark-client超时时间-->
  12. <property>
  13. <name>hive.spark.client.connect.timeout</name>
  14. <value>30000ms</value>
  15. </property>

SparkJars

下载下来的Spark的lib包下,可以看到有很多的hive的jar.但是我们除了hive-storage-api-2.7.2.jar都是不需要的.所以要先删除这些hive包,然后在把lib目录下的包都上传到指定的hdfs中

相关命令

  1. #该目录存储sparks的jar
  2. [root@cuiyaonan2000 jars]# hdfs dfs -mkdir -p /spark-jars
  3. [root@cuiyaonan2000 jars]# hdfs dfs -put ./myjars/* /spark-jars
  4. #该目录存储spark日志,后面会用到
  5. [root@cuiyaonan2000 jars]# hdfs dfs -mkdir -p /spark-log

Spark-default.conf

在Hive的conf下创建该spark-default.conf并添加如下内容

  1. spark.master yarn
  2. spark.eventLog.enabled true
  3. spark.eventLog.dir hdfs://ip:8020/spark-log
  4. spark.executor.memory 4g # 每个执行程序进程使用的内存量。
  5. spark.driver.memory 4g # 分配给远程Spark上下文(RSC)的内存量。我们推荐4GB
  6. spark.serializer org.apache.spark.serializer.KryoSerializer
  7. spark.executor.cores 2 #每个执行者的核心数量。
  8. spark.yarn.driver.memoryOverhead 400m #我们推荐400(MB)

启动

  1. nohup bin/hive --service metastore &
  2. nohup bin/hive --service hiveserver2 &

测试

使用hive bin目录下的beeline测试,后一定要insert成功否则不能验证.

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/Cpp五条/article/detail/441991
推荐阅读
相关标签
  

闽ICP备14008679号