赞
踩
(1)上传安装包 apache-hive-2.3.3-bin.tar.gz(源码包:apache-hive-2.3.3-src.tar.gz):
链接:https://pan.baidu.com/s/1-A0SQZyao7ngbRA8n7ksTQ
提取码:nxoy
(2)解压安装包:
tar -zxvf apache-hive-2.3.3-bin.tar.gz -C /home/hadoop/apps/
(3)进入到 bin 目录,运行 hive 脚本:
[hadoop@hadoop02 bin]$ ./hive
注意,如果你用的是 hadoop-2.6.5 的版本:
A、这时候一般会报错:Terminal initialization failed; falling back to unsupported,是因为 hadoop(/root/apps/hadoop-2.6.5/share/hadoop/yarn/lib)集群的 jline-0.9.94.jar 包版本过低,替换成 hive/lib 中的 jline-2.12.jar 包即可。
记住:所有 hdfs 节点都得替换 hadoop-2.6.5/share/hadoop/yarn/lib/jline-0.9.4.jar 替换成 jline-2.12.jar
B、修改 log4j.properties(如果有关于日志报错,请照此修改)
cp hive-log4j.properties.template hive-log4j.properties
将 EventCounter 修改成 org.apache.hadoop.log.metrics.EventCounter
#log4j.appender.EventCounter=org.apache.hadoop.hive.shims.HiveEventCounter
log4j.appender.EventCounter=org.apache.hadoop.log.metrics.EventCounter
如果报错就按照此方式解决,没有报错就不用管,在使用新的 hadoop-2.7.5 版本中已经不存在这个问题。所以不用关注。
本人博客:Linux 在线安装 mysql
进入 hive 配置问价路径:
[hadoop@hadoop01 ~]$ cd apps/hive-2.3.3/conf/
[hadoop@hadoop02 conf]# touch hive-site.xml
[hadoop@hadoop02 conf]# vi hive-site.xml
<configuration> <property> <name>javax.jdo.option.ConnectionURL</name> <value>jdbc:mysql://hadoop02:3306/hivedb?createDatabaseIfNotExist=true&useSSL=false</value> <description>JDBC connect string for a JDBC metastore</description> <!-- 如果 mysql 和 hive 在同一个服务器节点,那么请更改 hadoop02 为 localhost --> </property> <property> <name>javax.jdo.option.ConnectionDriverName</name> <value>com.mysql.jdbc.Driver</value> <description>Driver class name for a JDBC metastore</description> </property> <property> <name>javax.jdo.option.ConnectionUserName</name> <value>root</value> <description>username to use against metastore database</description> </property> <property> <name>javax.jdo.option.ConnectionPassword</name> <value>root</value> <description>password to use against metastore database</description> </property> </configuration>
可选配置,该配置信息用来指定 Hive 数据仓库的数据存储在 HDFS 上的目录:
<property>
<name>hive.metastore.warehouse.dir</name>
<value>/user/hive/warehouse</value>
<description>hive default warehouse, if nessecory, change it</description>
</property>
一定要记得加入 MySQL 驱动包(mysql-connector-java-5.1.48-bin)该 jar 包放置在 hive 的根路径下的 lib 目录:
链接:https://pan.baidu.com/s/1M828j9nUKrbyYvFuZLTfiw
提取码:7azh
vi /etc/profile
添加以下两行内容:
export HIVE_HOME=/home/hadoop/apps/apache-hive-2.3.3-bin
export PATH=$PATH:$HIVE_HOME/bin
保存退出。
最后不要忘记刷新环境变量:
source /etc/profile
[hadoop@hadoop01 ~]$ hive --help
注意:当使用的 hive 是 2.x 之前的版本,不做初始化也是 OK 的,当 hive 第一次启动的时候会自动进行初始化,只不过不会立即生成足够多的元数据库中的表,是在使用过程中慢慢生成。但最后进行初始化。
如果使用的 2.x 版本的 Hive,那么就必须手动初始化元数据库。使用命令:
schematool -dbType mysql -initSchema
[hadoop@hadoop02 ~]$ hive --service cli
退出 Hive:
hive> quit;
或者
hive> exit;
上节学习内容:Hive 基本概念(特点,架构,数据存储,OLTP,OLAP)
下节学习内容:Hive 三种连接方式(CLI、HiveServer2/beeline(常用)、Web UI)及基本命令使用入门
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。