赞
踩
这里我使用的是hadoop-3.2.4以及hive-3.1.3
可以到官网下载,或者我的网盘链接下载
hadoop:
链接:https://pan.baidu.com/s/1fiJ6yhTaJ4TB01GaX9rutg
提取码:9g5l
hive:
链接:https://pan.baidu.com/s/1GUcr1FpAS3DJir8A6voBDQ
提取码:9pvm
可以借助finallshell、xshell、rz命令等方式
此处我上传至/home/下

tar -zxvf hadoop-3.2.4.tar.gz
tar -zxvf apache-hive-3.1.3-bin.tar.gz
#此处我将解压好的hadoop和hive移动到/usr/local/下,重命名为hadoop和hive
mv hadoop-3.2.4 /usr/local/hadoop
mv apache-hive-3.1.3-bin /usr/local/hive
如果你的虚拟机是自带的java,那么可以使用echo $JAVA_HOME看是否有配置JAVA_HOME
echo $JAVA_HOME
如果出现了内容,则是你的JAVA_HOME已经配置,如果是空,则没有配置
没有配置的情况下,需要查找java的安装路径
首先使用which java(which查看的是可执行命令的位置)(由于我已经配置过,所以这里借用以前的截图)
which java
执行 ls -lrt /usr/bin/java
ls -lrt /usr/bin/java
接下来继续执行ls -lrt /etc/alternatives/java
ls -lrt /etc/alternatives/java
这里可以看到java的安装路径
/usr/lib/jvm/java-1.8.0-openjdk-1.8.0.181-7.b13.el7.x86_64/jre
现在可以配置环境变量
vim /etc/profile
加入下面的配置
export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk-1.8.0.181-7.b13.el7.x86_64/jre
export JRE_HOME=$JAVA_HOME/jre
export CLASSPATH=.:$JAVA_HOME/lib:$JRE_HOME/lib
export PATH=$JAVA_HOME/bin:$JRE_HOME/bin:$PATH
退出编辑并保存,然后让文件生效
source /etc/profile
再次执行echo $JAVA_HOME查看结果,如果可以看到刚刚配置的安装位置即为成功
vim ~/.bashrc
加入以下内容
#这里是上面hadoop的文件所在目录,我这里使用的是/usr/local/hadoop
export HADOOP_HOME=/usr/local/hadoop
export HDFS_DATANODE_USER=root
export HADOOP_SECURE_DN_USER=hdfs
export HDFS_NAMENODE_USER=root
export HDFS_SECONDARYNAMENODE_USER=root
export HADOOP_MAPRED_HOME=$HADOOP_HOME
export HADOOP_COMMON_HOME=$HADOOP_HOME
export HADOOP_HDFS_HOME=$HADOOP_HOME
export YARN_HOME=$HADOOP_HOME
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
export HADOOP_INSTALL=$HADOOP_HOME
#这里和上面/etc/profile里的JAVA_HOME内容一样
export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk-1.8.0.181-7.b13.el7.x86_64/jre
退出编辑并保存
使配置生效
创建/data/logs/hadoop目录,后面要用到
mkdir -p /data/logs/hadoop
source ~/.bashrc
vim /usr/local/hadoop/etc/hadoop/hadoop-env.sh
加入以下内容
export HADOOP_OS_TYPE=${HADOOP_OS_TYPE:-$(uname -s)}
export HDFS_NAMENODE_OPTS=" -Xms1024m -Xmx1024m -XX:+UseParallelGC"
export HDFS_DATANODE_OPTS=" -Xms1024m -Xmx1024m"
#这里的目录需要提前创建
export HADOOP_LOG_DIR=/data/logs/hadoop
vim /usr/local/hadoop/etc/hadoop/core-site.xml
加入以下内容,注意将本机IP替换为你的IP
<property>
<name>fs.defaultFS</name>
<value>hdfs://本机IP:8020</value>
</property>
vim /usr/local/hadoop/etc/hadoop/hdfs-site.xml
加入以下内容
<property> <name>dfs.replication</name> <value>1</value> </property> <property> <name>dfs.namenode.name.dir</name> <value>file:///data/hadoop/hdfs/nn</value> </property> <property> <name>dfs.datanode.data.dir</name> <value>file:///data/hadoop/hdfs/dn</value> </property> <property> <name>hadoop.tmp.dir</name> <value>file:///data/hadoop/hdfs/tmp</value> </property>
创建上面配置要用到的目录
mkdir -p /data/hadoop/hdfs/nn
mkdir -p /data/hadoop/hdfs/dn
mkdir -p /data/hadoop/hdfs/tmp
#停止firewall
systemctl stop firewalld.service
#禁止firewall开机启动
systemctl disable firewalld.service
hdfs namenode -format
出现下图中红框内内容为成功
cd /usr/local/hadoop/
./sbin/start-dfs.sh
启动之后访问你的IP:9870,出现下图页面即为成功
vim /etc/profile
加入以下内容
export HIVE_HOME=/usr/local/hive
export PATH=$HIVE_HOME/bin:$PATH
使配置生效
source /etc/profile
<?xml version="1.0" encoding="UTF-8" standalone="no"?> <?xml-stylesheet type="text/xsl" href="configuration.xsl"?> <configuration> <property> <name>hive.metastore.warehouse.dir</name> <value>/usr/local/hive/warehouse</value> </property> <property> <name>hive.metastore.db.type</name> <value>mysql</value> </property> <property> <name>javax.jdo.option.ConnectionURL</name> <value>jdbc:mysql://你的数据库IP:3306/hive?createDatabaseIfNotExist=true</value> </property> <property> <name>javax.jdo.option.ConnectionDriverName</name> <value>com.mysql.cj.jdbc.Driver</value> </property> <property> <name>javax.jdo.option.ConnectionUserName</name> <value>你的数据库用户名</value> </property> <property> <name>javax.jdo.option.ConnectionPassword</name> <value>你的数据库密码</value> </property> <property> <name>hive.metastore.schema.verification</name> <value>false</value> <description>关闭schema验证</description> </property> <property> <name>hive.cli.print.current.db</name> <value>true</value> <description>提示当前数据库名</description> </property> <property> <name>hive.cli.print.header</name> <value>true</value> <description>查询输出时带列名一起输出</description> </property> </configuration>
将hive自带的guava包删除
将hadoop带的guava包复制过来
cd /usr/local/hive/
rm -rf ./lib/guava-19.0.jar
cp /usr/local/hadoop/share/hadoop/common/lib/guava-27.0-jre.jar ./lib/
取maven中央仓库下载,或者下载我准备好的,我使用的是mysql-connector-java-8.0.26.jar
链接:https://pan.baidu.com/s/1wGiAm7vu8ZSbrk24VJAt8Q
提取码:mn77
将jar包放到/usr/local/hive/lib/下
schematool -initSchema -dbType mysql
出现下图内容则为初始化成功,可以到你的数据库中查看是否已经有了名为hive的mysql数据库
hive库的表
至此,hive安装完成,启动成功。可以输入hive,进行操作
默认在default库下,可以查看有哪些数据库,查看库中的表。
show databases;
use default;
show tables;
顺便说一下,本次搭建的hadoop没有添加开机启动,hive是开机自启的。
至此,linux下单机版hadoop+hive安装完成。感谢观看!
如有发现错误,请批评指正,感谢
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。