当前位置:   article > 正文

大数据之hive安装和配置_头哥hive的安装与配置

头哥hive的安装与配置

hive简介

hadoop是为了存储数据和计算而推广的技术,而和数据挂钩的也就属于数据库的领域了,所以hadoop和DBA挂钩也就是情理之中的事情,在这个基础之上,我们就需要为了DBA创作适合的技术。

hive正是实现了这个,hive是要类SQL语句(HiveQL)来实现对hadoop下的数据管理

MySQL安装

官网下载mysql-server(yum安装)

wget http://dev.mysql.com/get/mysql-community-release-el7-5.noarch.rpm
  • 1

解压

rpm -ivh mysql-community-release-el7-5.noarch.rpm
  • 1

安装

yum install mysql-community-server
  • 1

重启mysql服务:

service mysqld restart 
  • 1

进入mysql

mysql -u root
  • 1

为root用户设置密码

mysql> set password for 'root'@'localhost' =password('root');
  • 1

远程连接设置:
把在所有数据库的所有表的所有权限赋值给位于所有IP地址的root用户:

mysql> grant all privileges on *.* to root@' %'identified by 'root';
  • 1
mysql>flush privileges; 刷新权限
  • 1

如果是新用户而不是root,则要先新建用户:

mysql>create user 'username'@' %' identified by 'password';  
  • 1

hive安装和配置

以hive-2.3.5为例子

通过wget下载hive-2.3.5

wget http://mirror.bit.edu.cn/apache/hive/hive-2.3.5/apache-hive-2.3.5-bin.tar.gz
  • 1

将hive解压到/usr/local

tar -zxvf apache-hive-2.3.5-bin.tar.gz -C /usr/local/
  • 1

将文件重命名为hive文件:

mv apache-hive-2.3.5-bin hive
  • 1

在 vi /etc/profile末尾加

export HIVE_HOME=/usr/local/hive
export PATH=$PATH:$HIVE_HOME/bin
  • 1
  • 2

执行source /etc.profile

执行hive --version
有hive的版本显现,安装成功!

配置hive-env.sh

cp hive-env.sh.template  hive-env.sh
  • 1

修改Hadoop的安装路径

HADOOP_HOME=/opt/module /hadoop-2.3.5
  • 1

修改Hive的conf目录的路径

export HIVE_CONF_DIR=/usr/local/hive/conf
  • 1

配置hive-site.xml

cp hive- default.xml.template  hive-site.xml 
  • 1
<property>
<!-- 元数据库的链接地址 mysql -->
       <name>javax.jdo.option.ConnectionURL</name>         
<value>jdbc:mysql://bigdata131:3306/hivedb?createDatabaseIfNotExist=true</value>
       <description>JDBC connect string for a JDBC metastore</description>
</property>
<property>
<!-- 指定mysql驱动 -->
<!-- mysql5的驱动是com.mysql.jdbc.Driver,mysql6以后的是com.mysql.cj.jdbc.Driver。 --> 
        <name>javax.jdo.option.ConnectionDriverName</name>
        <value>com.mysql.jdbc.Driver</value>
        <description>Driver class name for a JDBC metastore</description>
</property>
<property>
<!-- 指定mysql用户名 -->
        <name>javax.jdo.option.ConnectionUserName</name>
        <value>root</value>
        <description>username to use against metastore database</description>                    
</property>
<property>
<!-- 指定mysql密码 请输入自己的MySQL连接密码 -->
        <name>javax.jdo.option.ConnectionPassword</name>
        <value>root</value>
        <description>password to use against metastore database</description>
</property>
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25

启动hive

启动Hadoop
初始化Metastore架构:schematool -dbType mysql -initSchema
启动Hive:hive
hive> 进入hive shell

Hive应用实例:wordcount

建数据源文件并上传到hdfs的/user/input目录下
建数据源表t1:create table t1 (line string)
装载数据:load data inpath ‘/user/input’ overwrite into table t1;
编写HiveQL语句实现wordcount算法,建表wct1保存计算结果:

create table wct1 as select word, count(1) as count from (select explode (split (line, ' ')) as word from t1) w group by word order by word;
  • 1

查看wordcount计算结果:

select * from wct1
  • 1
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/菜鸟追梦旅行/article/detail/628251
推荐阅读
相关标签
  

闽ICP备14008679号