赞
踩
create database 库名 charset = 'utf8';
DESC databases 库名;
SHOW DATABASES;
USE 库名;
DROP DATABASE 库名 [cascade]; -- 加中括号内容表示强制删除
CREATE TABLE 表名 ( id INT, name VARCHAR(30), gender VARCHAR(30) );
DESC 表名;
SHOW TABLES;
DROP TABLE 表名;
ALTER TABLE 表名 ADD 列名 类型;
ALTER TABLE 表名 change 旧列名 新列名 类型;
ALTER TABLE 表名 drop 列名;
ALTER TABLE 旧表名 rename to 新表名;
INSERT INTO 表名 values (1, '小明', '男');
UPDATE 表名 SET 字段名 = '女' WHERE id = 4;
DELETE FROM 表名 WHERE id = 5;
UPDATE 表名 SET 字段名 = NULL WHERE id = 6;
DELETE FROM 表名;
primary key(既不重复,也不为空,放字段后)
ALTER TABLE 表名 DROP PRIMARY KEY;
auto increment(放字段后)
comment = ''(放字段后)
not null(放字段后)
unique(该字段不能重复,放字段后)
目标列(第七):SELECT 列1,列2..... 来自表名(第一):from 表1 表连接(第二):(LEFT/RIGHT) JOIN 表2 ON 表1.字段1 = 表2.字段2 外部条件(第三):WHERE 筛选条件 分组(第四):GROUP BY 分组字段 内部条件(第五):HAVING 分组后筛选条件 排序(第六):ORDER BY 排序 选取(第八):LIMIT 起始索引, 条目数;
select * from 表名;
SELECT 列名1, 列名2 FROM 表名; (列可常数,可计算)
SELECT * FROM 表名 WHERE 条件; (也可 between and 或 in 范围)
SELECT * FROM 表名 WHERE name LIKE '李%';
······ WHERE 列名 IS NOT NULL;
一级:select 列 from 表 [where] order by 条件(1) (Asc升/Desc降); 二级:select 列 from 表 [where] order by 条件(1) (升/降), 条件(2) (升/降);
select 列,[聚合结果] from 表名 group by 分组条件列; 分组后查询列只能是分组后所对应的字段,不一定为全部字段,强行使用可能会报错(详见第七题第4小题处)
格式:select 列名 from 表名 limit m,n;
表别名:在from 后的表名后添加 as 别名 表名 as 别名 字段别名:在select 之后的字段名添加 as 列名 as 别名
(1)内:select 字段列表 from 左表 inner join 右表 on 连接规则 (and列指定); (2)左:select 列名 from 左表 left outer join 右表 on 连接规则 (and列指定); (3)右:select 列名 from 左表 right outer join 右表 on 连接规则 (and列指定);
select 列 from 表 (select........) 可作为表或条件,子查询作为表时括号后必加别名!!!
start-all.sh
systemctl status mysqld
hive --service metastore
(1)nohup hive --service metastore &(本地) (2)nohup hive --service hiveserver2 &(远程)
(1)jps(本地:有RunJar即可) (2)lsof -i:10000(远程:有端口号服务即可)
(1)hive(一代) (2)beeline(二代)
!connect jdbc:hive2://node1:10000 用户名:root 密码不用谢
(1)内部表:正常建 -- 删除时会全删 (2)外部表:create external··· -- 删除时只删元数据
row format delimited fields terminated by '分割符';
alter table 表名 add columns(字段名 字段类型);
alter table 表名 change 旧字段名 新字段 字段类型;
(1)alter table 表名 set 属性设置 (2)alter table tb_ddl2 set tblproperties('age'='20');
(1)drop table 表名; -- 直接删除表 (2)truncate table 表名; -- 清空表的元数据
(1)内部表 Managed Tabel (2)外部表 External Tables 区别: 内部表会把表的所有数据删除(元数据和行数据) 外部表会把表的元数据删除,保留hdfs上的文件数据
(1)alter table 表名 set tblproperties('EXTERNAL'='TRUE'); -- 设置为外部表 (2)alter table 表名 set tblproperties('EXTERNAL'='FALSE');-- 设置为内部表 (3)desc formatted 表名; -- 验证一下
(1)INSERT OVERWRITE TABLE 表名 values··· 覆盖写入(后可加查询语句) (2)INSERT INTO TABLE 表名 values··· 追加写入(后可加查询语句)
(1)创建主表 create table tb_user( id int, name string, age int, gender int, create_time date )row format delimited fields terminated by ','; (2)创建分区表 create table new_tb_user( id int, name string, age int, gender int, create_time date )partitioned by (分区列 int) -- 指定分区列,分区列不能是已存在列 row format delimited fields terminated by ',';
需先创建分区表,再添加分区内容 insert into new_tb_user partition(gender=0) values(1,'张',20,'2024-10-10 14:21:21');
需先创建分区表,再添加分区内容 还要进行设置开启 (1)set hive.exec.dynamic.partition.mode=nonstrict; 动态分区数据写入,可以根据select中指定的字段数据最为分区的依据 (2)insert into 分区表名 partition(分区列) select id,name, age,create_time,gender from 主表名;
(1)创建主表见17题··· (2)创建分桶表 create table new_tb_buckets( id int, name string, age int, gender int, create_time date )clustered by (gender) -- 拆分字段 into 2 buckets -- 拆分数量 row format delimited fields terminated by ',';
原理:hash(字段)%分桶数 insert into new_tb_buckets select * from tb_user limit 100; -- 先分前100个
-- 字符串切割转化为数组数据 (1)split(字段名,'-')[0] -- 让该列以'-'切割,再取第一个 (2)split(split(字段名,'-')[0],":") -- 层层切割
rlike (\\d:数字开头 \\w:字母开头 \\s:匹配空白 \\S:匹配非空白) ···where email rlike '^\\d'; -- 表示以数字开头
(1)Udf函数:计算前后数据量不变 (2)Udaf函数:聚合,多行变少行 (3)Udtf函数:爆炸,可以将数组中数据一行拆分为多行(见25题所示)
(1)select 其他列,split(分割列,'分隔符') as 别名 from 表名; -- 分割 (2)select explode(split(分割列,'分隔符'))as 别名 from 表名; -- 爆炸 (3)select 其他列,新别名 from 表名 lateral view explode(split(分割列,'分隔符')) tb1 as 新别名; -- 全新展示
(1)INPUT_FILE_NAME,-- 显示数据行所在的具体文件 (2)BLOCK OFFSET INSIDE FILE,-- 显示数据行所在文件的偏移量 (3)ROW_OFFSET_INSIDE_BLOCK,-- 显示数据所在HDFS块的偏移量 -- 此虚拟列需要设置:SET hive.exec.rowoffset=true 才可使用
(1)creste table 新表 like 老表; -- 只复制元数据,没有行数据 (2)as语法:creste table 新表名 as select * from 老表; -- 所有数据都复制
-- 1、物理创建txt文件并写入内容 -- 2、启动hadoop并远程连接客户端 -- 3、虚拟机创建目标目录 -- 4、开网页找到该目录并托入文件 -- 5、创建表连接到目标目录 create table abc.8o ( abc2 string ) location '/home/hadoop/worddata'; -- 6、对该表进行操作查询,explode爆炸函数对分割后的数组逐行展示 select explode(split(abc2,' ')) from abc.8o;
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。