当前位置:   article > 正文

hadoop生态下hive安装过程_根据所学知识,在hadoop平台上如何安装hive?

根据所学知识,在hadoop平台上如何安装hive?

Hive的安装部署
1.首先在Linux本地,新建/data/hive1目录,用于存放所需文件
(1)mkdir -p /data/hive1
(2)切换目录到/data/hive1下,上传apache-hive-2.1.0-bin.tar.gz和mysql-connector-java-5.1.40-bin.jar
2.将/data/hive1目录下的hive-1.1.0-cdh5.4.5.tar.gz,解压缩到/apps目录下。
tar -xzvf apache-hive-2.1.0-bin.tar.gz -C /apps/
再切换到/apps目录下,将/apps/apache-hive-2.1.0,重命名为hive
cd /apps
mv /apps/apache-hive-2.1.0/ /apps/hive
cp /data/hive1/mysql-connector-java-5.1.40-bin.jar /apps/hive/lib/
3.配置环境变量
4.验证hive安装成功
> h i v e − − v 在 h i v e 中 查 询 数 据 库 情 况 : 5. 配 置 h i v e , m y s q l 存 放 h i v e 的 元 数 据 . a ) 复 制 m y s q l 驱 动 程 序 到 h i v e 的 l i b 目 录 下 。 b ) 配 置 h i v e − s i t e . x m l 没 有 h i v e − s i t e . x m l , 复 制 h i v e − d e f a u l t . x m l . t e m p l a t e 为 h i v e − s i t e . x m l 修 改 连 接 信 息 为 m y s q l 链 接 地 址 , 将 >hive --v 在hive中查询数据库情况: 5.配置hive,mysql存放hive的元数据. a)复制mysql驱动程序到hive的lib目录下。 b)配置hive-site.xml 没有hive-site.xml,复制hive-default.xml.template为hive-site.xml 修改连接信息为mysql链接地址,将 >hivevhive5.hivemysqlhive.a)mysqlhivelibb)hivesite.xmlhivesite.xmlhivedefault.xml.templatehivesite.xmlmysql{system:…字样替换成具体路径。

		[hive/conf/hive-site.xml]
			<property>
				<name>javax.jdo.option.ConnectionPassword</name>
				<value>root</value>
				<description>password to use against metastore database</description>
			</property>
			<property>
				<name>javax.jdo.option.ConnectionUserName</name>
				<value>root</value>
				<description>Username to use against metastore database</description>
			</property>
			<property>
				<name>javax.jdo.option.ConnectionURL</name>
				<value>jdbc:mysql://localhost:3306/hive2</value>
			</property>
			<property>
				<name>javax.jdo.option.ConnectionDriverName</name>
				<value>com.mysql.jdbc.Driver</value>
				<description>Driver class name for a JDBC metastore</description>
			</property>

<configuration>  
    <property>  
        <name>javax.jdo.option.ConnectionURL</name>  
        <value>jdbc:mysql://localhost:3306/hive?createDatabaseIfNotExsit=true;characterEncoding=latin1 &amp;useSSL=false</value>  
    </property>  
    <property>  
        <name>javax.jdo.option.ConnectionDriverName</name>  
        <value>com.mysql.jdbc.Driver</value>  
    </property>  
    <property>  
        <name>javax.jdo.option.ConnectionUserName</name>  
        <value>root</value>  
   </property>  
   <property>  
        <name>javax.jdo.option.ConnectionPassword</name>  
        <value>strongs</value>  
    </property>  
</configuration>  
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36
  • 37
  • 38
  • 39

HADOOP_HOME=/apps/hadoop
export HIVE_CONF_DIR=/apps/hive/conf
sudo service mysql status
查看MySQL状态
进入MySQL
显示所有创建好的表
2)hivejdbc连接
到hive6 下上传依赖包,并且解压
进入到hive/conf
修改hive-site.xml文件

<property>  
        <name>hive.server.thrift.port</name>  
        <value>10000</value>  
 </property>
<property>  
        <name>hive.server.thrift.bind.host</name>  
        <value>127.0.0.1</value>  
 </property>
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8

启动hadoop和MySQL

使用beeline命令行测试
beeline
!connect:hive2://127.0.0.1:10000/default
用户名和密码都为空,直接回车;
成功进入beeline连接jdbc数据库,
执行命令查看default默认数据库和库中的表,

启动hive

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/人工智能uu/article/detail/790713
推荐阅读
相关标签
  

闽ICP备14008679号