赞
踩
1.下载hive包,这里使用的是hive 2.3.0,hadoop 2.7.1
2.解压压缩包
tar zxvf apache-hive-2.3.0-bin.tar.gz
--------------------------
只是为了做实验使用,因此未创建工作组及hive用户,不涉及core-site.xml代理配置
--------------------------
3.添加$HIVE_HOME,使用source生效环境变量
- vim /etc/profile
- source /etc/profile
4.修改后,完整的环境变量内容
- #Java/Hive/Hadoop
- export JAVA_HOME=/usr/java/jdk1.8.0_161
- export HADOOP_HOME=/usr/hadoop/hadoop-2.7.1
- export HIVE_HOME=/usr/apache-hive-2.3.0-bin
- export PATH=$PATH:$JAVA_HOME/bin:$HIVE_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
-
- #spark
- export SPARK_HOME=/usr/spark-2.4.2
- export PATH=$PATH:$SPARK_HOME/bin
5.在hdfs创建hive目录
- hdfs dfs -mkdir -p /user/hive/warehouse
- hdfs dfs -mkdir -p /user/hive
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。