赞
踩
为什么要使用数据库?
持久化(persistence)∶把数据保存到可掉电式存储设备中以供之后使用。大多数情况下,特别是企业级应
用,数据持久化意味着将内存中的数据保存到硬盘上加以"固化”,而持久化的实现过程大多通过各种关系
数据库来完成。
持久化的主要作用是将内存中的数据存储在关系型数据库中,当然也可以存储在磁盘文件、XML数据文
件中。
DB:数据库(Database)
即存储数据的“仓库”,其本质是一个文件系统,它保存了一系列有组织的数据
DBMS:数据库管理系统(Database Management System)
是一种操纵和管理数据库的大型软件,用于建立、使用和维护数据库,对数据库进行统一管理和控制。用户通过数据库管理系统访问数据库中表内的数据。
SQL:结构化查询语言(Structured Query Language)
专门用来与数据库通信的语言
关系:
关系型数据库与非关系型数据库
关系型数据库:
关系型数据库:这种类型的数据库是最古老的数据库类型,关系型数据库模型是把复杂的数据结构归结
为简单的二元关系
关系型数据库以行和列的形式存储数据,以便于用户理解。这一系列的行和列被称为表,一组表组成了
一个库
表与表之间的数据记录有关系。现实世界中的各种实体以及实体之间的各种联系均用关系模型来表示。
关系型数据库,就是建立在关系模型基础上的数据库。
非关系型数据库:
非关系型数据库,可看成传统关系型数据库的功能阉割版本,基于键值对存储数据,不需要经过SQL层
的解析,性能非常高。同时,通过减少不常用的功能,进一步提高性能。
常见类别:
1.键值型数据库(Redis)
2.文档型数据库(MongoDB)
3.搜索引擎数据库(ES)
4.列式数据库(HBase)
5.图形数据库(Neo4J)
SQL通用语法
1. SQL语句可以单行或多行书写,以分号结尾。
2. SQL语句可以使用空格/缩进来增强语句的可读性。
3.MySQL数据库的SQL语句不区分大小写,关键字建议使用大写。
4.注释:
单行注释:--注释内容或#注释内容(MySQL特有)
多行注释:/产注释内容*/
SQL语言分类:
1.DDL(Data Definition Language):数据定义语言,用来定义数据库对象(数据库,表,字段)
2.DML(Data Manipulation Language):数据操作语言,用来对数据库表中的数据进行增删改
3.DQL(Data Query Language):数据查询语言,用来查询数据库中表的记录
4.DCL(Data Control Language):数据控制语言,用来创建数据库用户、控制数据库的访问权限
database:
SHOW DATABASES;
SELECT DATABASE();--当前所处的数据库
CREATE DATABASE [IF NOT EXISTS]数据库名 [DEFAULT CHARSET 字符集][COLLATE 排序规则];
DROP DATABASE [IF EXISTS]数据库名;
USE 数据库名;
table:
SHOW TABLES; DESC 表名;--查询表结构 SHOW CREATE TABLE 表名;--查询这张表的建表语句 CREATE TABLE表名( 字段1 字段1类型[COMMENT字段1注释], 字段2 字段2类型[COMMENT字段2注释], 字段3 字段3类型[COMMENT字段3注释], ... 字段n 字段n类型[COMMENT字段n注释] )[ENGINE=引擎名 DEFAULT CHARSET=默认字符集 COLLATE=排序规则][COMMENT 表注释]; 例如: mysql> create table user( -> id int comment '编号', -> name varchar(50) comment '姓名', -> gender varchar(1) comment '性别', -> age int comment '年龄' -> )ENGINE=InnoDB DEFAULT CHARSET=utf8mb4 COLLATE=utf8mb4_0900_ai_ci;;
DDL数据类型:
数字类型:
类型 | 大小 | 有符号范围 | 无符号范围 | 描述 |
---|---|---|---|---|
TINYINT | 1byte | (-128,127) | (0,255) | 小整数值 |
SMALLINT | 2bytes | (-215,215-1) | (0,216-1) | 较小整数值 |
MEDIUMINT | 3bytes | (-223,223-1) | (0,224-1) | 中整数值 |
INT | 4bytes | (-231,231-1) | (0,232-1) | 大整数值 |
BIGINT | 8bytes | (-263,263-1) | (0,264-1) | 极大整数值 |
FLOAT | 4bytes | (-3.402823466E+38,3.402823466351E+38) | 0和(1.175494351E-38,3.402823466E+38) | 单精度浮点数 |
DOUBLE | 8bytes | 略 | 略 | 双精度浮点数 |
DECIMAL | 依赖于M(精度)和D(标度) 的值 | 依赖于M(精度)和D(标度)的值 | 小数值(精准定点数) |
类型的定义:
age TINYINT UNSIGNED
score double(4,1)//4整体长度,1是小数的位数
字符串类型:
类型 | 大小 | 描述 |
---|---|---|
CHAR | 0~255 bytes | 定长字符串 |
VARCHAR | 0~65535 bytes | 变长字符串 |
TINYBLOB | 0~255 bytes | 不超过255个字符的二进制数据 |
TINYTEXT | 0~255 bytes | 短文本字符串 |
BLOB | 0~65535 bytes | 二进制的长文本数据 |
TEXT | 0~65535 bytes | 长文本数据 |
CHAR | 0~255 bytes | 定长字符串 |
MEDIUMBLOB | 0~16777215 bytes | 二进制形式的中等长度文本数据 |
MEDIUMTEXT | 0~16777215 bytes | 中等长度文本数据 |
LONGBLOB | 0~4294967295 bytes | 二进制形式的极大文本数据 |
LONGTEXT | 0~4294967295 bytes | 极大文本数据 |
日期类型:
类型 | 大小 | 范围 | 格式 | 描述 |
---|---|---|---|---|
DATE | 3 | 1000-01-01到9999-12-31 | YYYY-MM-DD | 日期值 |
TIME | 3 | -838:59:59至838:59:59 | HH:MM:SS | 时间或持续时间 |
YEAR | 1 | 1901至2155 | YYYY | 年份值 |
DATETIME | 8 | 1000-01-01 00:00:00至9999-12-31 23:59:59 | YYYY-MM-DD HH:MM:SS | 混合日期和时间值 |
TIMESTAMP | 4 | 1970-01-01 00:00:01至2038-01-19 03:14:07 | YYYY-MM-DD HH:MM:SS | 混合日期和时间值、时间戳 |
练习:
CREATE TABLE emp(
id int comment'编号',
workno varchar(10) comment '工号',
name varchar(10) comment '姓名',
gender char(1) comment '性别',
age tinyint unsigned comment '年龄',
idcard char(18) comment '身份证号',
entrydate date comment '入职时间'
)comment '员工表';
表修改:
//添加字段
ALTER TABLE 表名 ADD 字段名 类型(长度) [COMMENT 注释][约束];
//修改字段名和字段类型
ALTER TABLE 表名 CHANGE 旧字段名 新字段名 类型(长度) [COMMENT 注释][约束];
//删除字段
ALTER TABLE 表名 DROP 字段名;
//修改表名
ALTER TABLE 表名 RENAME TO 新表名
//删除表
DROP TABLE[IF EXISTS]表名;
//删除指定表,并重新创建该表
TRUNCATE TABLE 表名;
//给指定字段添加数据
INSERT INTO 表名(字段名1,字段名2,...) VALUES(值1,值2,...);
//给全部字段添加数据
INSERT INTO 表名 VALUES(值1,值2,...);
//批量添加数据,字段与值的顺序是一一对应的,字符串或日期应该在引号中
INSERT INTO 表名(字段名1,字段名2,...)VALUES(值1,值2,...),(值1,值2,...),(值1,值2,...);
INSERT INTO 表名 VALUES(值1,值2,...),(值1,值2,...),(值1,值2,...);
UPDATE 表名 SET 字段名1=值1,字段名2=值2,...[WHERE 条件];
#修改列数据
ALTER TABLE 表名 MODITY 字段名 字段属性;
DELETE FROM 表名 [WHERE 条件]
//DELETE不能删除某一字段的值,如果要做,需要用UPDATE修改某一字段
SELECT 字段列表 FROM 表名列表 WHERE 条件列表 GROUP BY 分组字段列表 HAVING 分组后条件列表 ORDER BY 排序字段列表 LIMIT 分页参数
1.查询多个字段:
SELECT 字段1,字段2,字段3...FROM 表名;
SELECT * FROM 表名;
2.设置别名:
SELECT 字段1 [AS 别名1],字段2 [AS 别名2]...FROM 表名;
3.去除重复记录
SELECT DISTINCT 字段列表 FROM 表名;
4.条件查询
SELECT 字段列表 FROM 表名 WHERE 条件列表;
SELECT id,name,age FROM user WHERE age>22;
SELECT * FROM user WHERE name like '__';--查询名字为2位的用户信息
SELECT * FROM user WHERE name like '%n';--查询名字最后一个字符为n的用户信息
5.聚合函数
将一列数据作为一个整体,进行纵向计算
所有的null值不参与聚合函数计算
SELECT 聚合函数(字段列表) FROM 表名;
SELECT count(id) FROM user;
6.分组查询
SELECT 字段列表 FROM 表名 [WHERE 条件]GROUP BY 分组字段名 [HAVING 分组后过滤条件];
WHERE与HAVING区别:
1.执行时机不同:where是分组之前进行过滤,不满足where条件,不参与分组;而having是分组之后对
结果进行过滤
2.判断条件不同:where不能对聚合函数进行判断,而having可以
7.排序查询
SELECT 字段列表 FROM 表名 ORDER BY 字段1 排序方式1,字段2 排序方式2
排序方式:
ASC:升序(默认值)
DESC:降序
8.分页查询
SELECT 字段列表 FROM 表名 LIMIT 起始索引,查询记录数;
注意:
起始索引从0开始,起始索引=(查询页码-1)*每页显示记录数。
分页查询是数据库的方言,不同的数据库有不同的实现,MySQL中是LMIT。
如果查询的是第一页数据,起始索引可以省略,直接简写为limit 10。
练习:
SELECT * FROM user WHERE age IN (20,21,22,23);
SELECT * FROM user WHERE gender='男' AND age BETWEEN 20 AND 40 AND name LIKE '___';
SELECT count(*) FROM user WHERE age<60 GROUP BY gender;
SELECT name,age FROM user WHERE age<=35 ORDER BY age ASC,enterTime DESC;
SELECT * FROM user WHERE gender='男' AND age BETWEEN 20 AND 40 ORDER BY age ASC,enterTime DESC LIMIT 5;
项目开发中,在进行数据库表结构设计时,会根据业务需求及业务模块之间的关系,分析并设计表结构,由于业务之间相互关联,所以各个表结构之间也存在着各种联系,基本上分为三种:
一对多(多对一)
多对多
一对一
连接:
1.内连接
2.外连接:左外连接、右外连接
内连接:连接的是两张表交集的部分
1.隐式内连接
SELECT 字段列表 FROM 表1,表2 WHERE 条件...
2.显式内连接
SELECT 字段列表 FROM 表1 [INNER]JOIN 表2 ON 连接条件...;
--隐式内连接
SELECT student.name,student_course.course_id FROM student,student_course WHERE student.id=student_course.student_id
--显式内连接
SELECT student.name,student_course.course_id FROM student inner JOIN student_course on student.id = student_course.student_id
外连接:全部连接
左外连接:包含左表全部数据,包含左表和右表交集部分的数据
右外连接:包含右表全部数据,包含右表和左表交集部分的数据
--左外连接
select student.name,sc.course_id FROM student LEFT JOIN student_course sc on student.id = sc.student_id
--右外连接
select student.name,sc.course_id FROM student RIGHT JOIN student_course sc on student.id = sc.student_id
自连接:自己跟自己连接,可以是外连接,也可以是内连接
联合查询:把多次查询的结果合并起来,形成一个新的查询结果集
SELECT 字段列表 FROM 表A ...
UNION[ALL]
SELECT 字段列表 FROM 表B ...
SELECT * FROM student WHERE id<5
UNION ALL
SELECT * FROM student WHERE name='zyj5'
--同时满足两个条件的结果会重复出现,去掉UNION后边的ALL就可以去重
子查询:SQL语句中嵌套SELECT语句,称为嵌套查询,又称子查询。
SELECT * FROM t1 WHERE column1=(SELECT column1 FROM t2);
--子查询的外部的语句可以是INSERT/UPDATE/DELETE/SELECT的任何一个
标量子查询:子查询返回的结果是单个值(数字、字符串、日期等),最简单的形式,这种子查询成为标量子查询。
SELECT * FROM emp WHERE entrydate > (SELECT entrydate FROM emp WHERE name='xxx')
列子查询:子查询返回的结果是一列(可以是多行),这种子查询称为列子查询。
常用的操作符:IN、NOT IN 、ANY、SOME、ALL
SELECT * FROM emp WHERE dept_id IN(SELECT id FROM dept WHERE name='销售部' or name='市场部');//查询在销售部或者市场部的人的信息
SELECT * FROM emp WHERE salary>ALL(SELECT salary FROM emp WHERE dept_id=(SELECT id FROM dept WHERE name='财务部'));//查询员工薪资大于财务部所有人工资的员工信息
行子查询:子查询返回的结果是一行(可以是多列),这种子查询称为行子查询。
常用操作符:=、<>、IN、NOT IN
SELECT * FROM emp WHERE (salary,managerid)=(SELECT salary,managerid FROM emp WHERE name='张无忌');//查询与“张无忌”的薪资及直属领导相同的员工信息
表子查询:子查询返回的结果是多行多列,这种子查询称为表子查询。
常用的操作符:IN
SELECT * FROM emp WHERE (job,salary) IN(SELECT job、salary FROM emp WHERE name='鹿杖客' OR name='孙远桥');
--查询与'鹿杖客'或者‘孙远桥’同一份工作和薪资的用户信息
SELECT * FROM (SELECT * FROM emp WHERE entrydate>'2006-01-01') e LEFT JOIN dept d ON e.dept_id=d.id;
--查询入职日期大于2006年的员工的信息
SELECT * FROM emp e2 WHERE e2.salary<(SELECT avg(e1.salary) FROM emp e1 WHERE e1.dept_id=e2.dept_id)
--查询低于本部门平均工资的员工信息
SELECT d.id,d.name,(SELECT COUNT(*) FROM emp e WHERE e.dept_id=d.id)'人数' FROM dept d;
--查询所有的部门信息,并统计部门的员工人数
1.FROM,通过FROM来决定查询哪张表
2.WHERE,通过WHERE来决定查询的条件
3.GROUP BY,分组
4.HAVING,分组之后的条件
5.SELECT,查询要返回哪些字段
6.ORDER BY
7.LIMIT
1.查询用户
USE mysql;
SELECT * FROM user;
2.创建用户
CREATE USER '用户名'@'主机名' IDENTIFIED BY '密码';
3.修改用户密码
ALTER USER '用户名'@'主机名' IDENTIFIED WITH mysql_native_password BY '新密码';
4.删除用户
DROP USER '用户名'@'主机名'
//在localhost上创建新用户zyj
create user 'zyj'@'localhost' identified by '123456';
//创建任何主机都可以访问的新用户zyj
create user 'zyj'@'%' identified by '123456';
修改用户zyj的密码
alter user 'zyj'@'localhost' identified with mysql_native_password by '123456';
1.查询权限
SHOW GRANTS FOR '用户名'@'主机名';
2.授予权限
GRANT 权限列表 ON 数据库名.表名 TO '用户名'@'主机名';
3.撤销权限
REVOKE 权限列表 ON 数据库名.表名 FROM '用户名'@'主机名';
show grants for 'zyj'@'localhost';
grant insert,update on test.* to 'zyj'@'localhost';
revoke insert,update on test.* from 'zyj'@'localhost';
字符串函数:
UPDATE emp SET workNo=lpad(workNo,5,'0');
//把表中的编号全部格式化为5位
数值函数:
select ceil(1.5);
select mod(12,5);
select lpad(round(rand()*1000000,0),6,'0');//随机获取6验证码
日期函数:
select name,datediff(curdate(),entrydate) as 'entrydays' from emp order by entrydays desc;
//将所有员工的入职天数按降序排序
流程函数:
--根据分数显示成绩的等级
select
name AS '姓名',
(case when score<60 then '不及格' when score>60&&score<70 then '及格' when score>70 then '良好' when score>80 then '优秀' end )AS '成绩等级'
from user
概念:约束是作用于表中字段的规则,用于限制存储在表中的数据。
目的:保证数据库中数据的正确、有效性和完整性。
分类:
create table user
(
id int primary key auto_increment comment '主键',
name varchar(10) not null unique comment '非空且唯一',
age int unsigned check ( age>0 AND age<=120 ) comment '检查约束,大于0小于等于120',
status char(1) default '1' comment '默认为1',
gender char(1) comment '性别'
)comment '用户表';
外键约束:
CREATE TABLE 表名(
字段名 数据类型
...
[CONSTRANT] [外键名称] FOREIGN KEY(外键字段名) REFERENCES 主键(主表列名)
)
ALTER TABLE 表名 ADD CONSTRAINT 外键名称 FOREIGN KEY(外键字段名) REFERENCES 主表(主表列名);
ALTER TABLE 表名 DROP FOREIGN KEY 外键名称;
alter table user add constraint fk_emp_dept_id foreign key (dept_id) references dept(id);
外键的删除/更新行为:
ALTER TABLE 表名 ADD CONSTRAINT 外键名称 FOREIGN KEY (外键字段) REFERENCES 主表名(主表字段名) ON UPDATE ON DELETE CASCADE;
事务是一组操作的集合,它是一个不可分割的工作单位,事务会把所有的操作作为一个整体一起向系统提交或撤销操作。
请求,即这些操作要么同时成功,要么同时失败。
select @@autocommit = 0;
# 设置为手动提交
select * from account where nane ='张三';
update account set money = money - 1000 where name = '张三';
update account set money = money + 1000 where name = '李四';
commit
事务的操作
# 开启事务
START TRANSACTION或BEGIN
# 提交事务
COMMIT
# 回滚事务
ROLLBACK
事务的四大特性:
原子性(Atomicity):事务是不可分割的最小操作单元,要么全部成功,要么全部失败。
一致性(Consistency) :事务完成时,必须使所有的数据都保持一致状态。
隔离性(Ilsolation)∶数据库系统提供的隔离机制,保证事务在不受外部并发操作影响的独立环境下运
行。
持久性(Durability):事务一旦提交或回滚,它对数据库中的数据的改变就是永久的。
并发事务问题:
脏读:
A事务读取B事务尚未提交的数据,此时如果B事务发生错误并执行回滚操作,那么A事务读取到的数据就是脏数据。
不可重复读:
事务A在执行读取操作,由整个事务A比较大,前后读取同一条数据需要经历很长的时间 。而在事务A第一次读取数据,比如此时读取了小明的年龄为20岁,事务B执行更改操作,将小明的年龄更改为30岁,此时事务A第二次读取到小明的年龄时,发现其年龄是30岁,和之前的数据不一样了。
幻读(前后多次读取,数据总量不一致):
事务A在执行读取操作,需要两次统计数据的总量,前一次查询数据总量后,此时事务B执行了新增数据的操作并提交后,这个时候事务A读取的数据总量和之前统计的不一样,就像产生了幻觉一样,平白无故的多了几条数据,成为幻读。
事务隔离级别:
SELECT @@TRANSACTION_ISOLATION
#查看事务的隔离级别
SET [SESSION|GLOBAL] TRANSACTION ISOLATION LEVEL {READ UNCOMMITTED|READ COMMITTED|REPEATABLE READ|SERIALIZABLE}
#设置事务隔离级别
#SESSION只针对当前客户端窗口有效,GLOBAL对所有客户端窗口都有效
Mysql体系结构:
连接层
最上层是一些客户端和连接服务,主要完成一些类似于连接处理、授权认证及相关的安全方案。服务
器也会为安全接入的每个客户端验证它所具有的操作权限。
服务层
第二层架构主要完成大多数的核心服务功能,如SQL接口,并完成缓存的查询,SQL的分析和优化,部
分内置函数的执行。所有跨存储引擎的功能也在这一层实现,如过程、函数等。
引擎层
存储引擎真正的负责了MySQL中数据的存储和提取,服务器通过API和存储引擎进行通信
不同的存储引擎具有不同的功能,这样我们可以根据自己的需要,来选取合适的存储引擎。
存储层
主要是将数据存储在文件系统之上,并完成与存储引擎的交互。
存储引擎:存储引擎就是存储数据、建立索引、更新/查询数据等技术的实现方式。存储引擎是基于表的而不是基于库的,所以存储引擎也可被称为表类型。
show engines;# 查看存储引擎情况
InnoDB:
InnoDB是一种兼顾高可靠性和高性能的通用存储引擎,在MySQL 5.5之后,InnoDB是默认的MySQL存
储引擎。
特点:
DML操作遵循ACID模型,支持事务;
行级锁,提高并发访问性能;
支持外键FOREIGN KEY约束,保证数据的完整性和正确性;
文件:
xxx.ibd:xxx代表的是表名,innoDB引擎的每张表都会对应这样一个表空间文件,存储该表的表结构
(frm、sdi)、数据和索引。
参数: innodb_file_per_table
InnoDB:
MyISAM:
MylSAM是MySQL早期的默认存储引擎。
特点
不支持事务
不支持外键
支持表锁,不支持行锁
访问速度快
文件
XXX.sdi:存储表结构信息
XXX.MYD:存储数据
XXX.MYI:存储索引
Memory:
Memory引擎的表数据时存储在内存中的,由于受到硬件问题、或断电问题的影响,只能将这些表作为临
时表或缓存使用。
特点
内存存放
hash索引(默认)
文件
XXX.sdi:存储表结构信息
存储引擎的选择:
在选择存储引擎时,应该根据应用系统的特点选择合适的存储引擎。对于复杂的应用系统,还可以根据实际情况选择多种存储引擎进行组合。
InnoDB:是Mysql的默认存储引擎,支持事务、外键。如果应用对事务的完整性有比较高的要求,在并发
条件下要求数据的一致性,数据操作除了插入和查询之外,还包含很多的更新、删除操作,那么InnoDB
存储引擎是比较合适的选择。
MyISAM:如果应用是以读操作和插入操作为主,只有很少的更新和删除操作,并且对事务的完整性、并
发性要求不是很高,那么选择这个存储引擎是非常合适的。
MEMORY:将所有数据保存在内存中,访问速度快,通常用于临时表及缓存。MEMORY的缺陷就是对表
的大小有限制,太大的表无法缓存在内存中,而且无法保障数据的安全性。
索引(index)是帮助MySQL高效获取数据的数据结构(有序)。在数据之外,数据库系统还维护着满足特定查找算法的数据结构,这些数据结构以某种方式引用(指向)数据,这样就可以在这些数据结构上实现高级查找算法,这种数据结构就是索引。
优点:
1.提高数据库检索的效率,降低数据库的IO成本
2.通过索引列对数据进行排序,降低数据排序的成本,降低CPU的消耗
缺点:
1.索引列也是要占用空间的
2.索引大大提高了查询效率,同时却也降低更新表的速度,如对表进行INSERT、UPDATE、DELETE
时,效率降低
索引结构:MySQL的索引是在存储引擎层实现的,不同的存储引擎有不同的结构,主要包含以下几种:
索引结构 | 描述 |
---|---|
B+Tree索引 | 最常见的索引类型,大部分引擎都支持B+树索引 |
Hash索引 | 底层数据结构是用哈希表实现的,只有精确匹配索引列的查询才有效,不支持范围查询 |
R-Tree(空间索引) | 空间索引是MyISAM引擎的一个特殊索引类型,主要用于地理空间数据类型,通常使用较少 |
Full-text(全文索引) | 是一种通过建立倒排索引,快速匹配文档的方式。类似于Lucene,Solr,ES |
B+Tree:
以一颗最大度数(max-degree)为4(4阶)的b+tree为例:
Mysql对B+Tree进行了优化,在原B+Tree的基础上,增加一个指向相邻叶子节点的链表指针,就形成了带有顺序指针的B+Tree,提高区间访问的性能。
InnoDB存储引擎选择使用B+tree作为索引结构的原因?
1.相对于二叉树,层次更少,搜索效率高
2.对于B-tree,无论是叶子节点还是非叶子节点,都会保存数据,这样每个非叶子节点都指向具体的字段
信息。这样导致一页中存储的键值减少,指针跟着减少,要同样保存大量数据,只能增加树的高度,导
致性能降低。而B+树非叶子节点不存在数据只存索引。
3.相对Hash索引,B+tree支持范围匹配及排序操作
索引分类:
在InnoDB存储引擎中,根据索引的存储形式,又可以分为以下两种:
聚集索引选取规则:
如果存在主键,主键索引就是聚集索引。
如果不存在主键,将使用第一个唯一(UNIQUE)索引作为聚集索引。
如果表没有主键,或没有合适的唯一索引,则InnoDB会自动生成一个rowid作为隐藏的聚集索引。
聚集索引:
查询语句的执行过程SELECT * FROM user WHERE name='Arm';
1.先从二级索引根据name查到主键值
2.再根据主键值查询聚集索引查到对应的行
这叫做“回表查询”
创建索引:
CREATE [UNIQUE|FULLTEXT] INDEX index_name ON table_name(index_col_name,...);
查看索引:
SHOW INDEX FROM table_name;
删除索引:
DROP INDEX index_name ON table_name;
create index idx_student_name on student(name);
create index idx_student_name_no on student(name,no);
drop index idx_student_name on student
SQL执行频率:
MySQL客户端连接成功后,通过show [session|globall] status命令可以提供服务器状态信息。通过如下指令,可以查看当前数据库的INSERT、UPDATE、DELETE、SELECT的访问频次:
SHOW GLOBAL STATUS LIKE 'Com_______';
如果查询占了大多数,就需要进行优化
慢查询日志:
慢查询日志记录了所有执行时间超过指定参数(long_query_time,单位:秒,默认10秒)的所有SQL语句的日志。
MySQL的慢查询日志默认没有开启,需要在MySQL的配置文件(/etc/my.cnf)中配置如下信息:
#开启MySQL慢日志查询开关
slow_query_log=1
#设置慢日志的时间为2秒,SQL语句执行时间超过2秒,就会视为慢查询,记录慢查询日志
long_query_time=2
配置完毕之后,通过以下指令重新启动MySQL服务器进行测试,查看慢日志文件中记录的信息/var/lib/mysql/localhost-slow.log,
profile详情:
show profiles能够在做SQL优化时帮助我们了解时间都耗费到哪里去了。通过have_profling参数,能够看到当前MySQL是否支持
profile操作:
SELECT @@have_profiling;
默认profiling是关闭的,可以通过set语句在session/global级别开启profiling:
select @@profiling;
set profiling =1;
执行一系列的业务SQL的操作,然后通过如下指令查看指令的执行耗时:
#查看每一条SQL的耗时基本情况
show profiles;
#查看指定query_id的SQL语句各个阶段的耗时情况
show profile for query query_id;
#查看指定query_id的SQL语句CPU的使用情况
show profile cpu for query query_id;
explain执行计划:
EXPLAIN或者DESC命令获取MySQL如何执行SELECT语句的信息,包括在SELECT语句执行过程中表如何连接和连接的顺序。
语法:
#直接在select语句之前加上关键字explain/desc
EXPLAIN SELECT 字段列表 FROM 表名 WHERE 条件;
EXPLAIN select * FROM student WHERE id=1;
EXPLAIN执行计划各字段含义:
id:select查询的序列号,表示查询中执行select子句或者是操作表的顺序(id相同,执行顺序从上到下; id不同,值越大,越先执行)。 select_type:表示SELECT的类型,常见的取值有SIMPLE(简单表,即不使用表连接或者子查询)、 PRIMARY(主查询,即外层的查询)、UNION(UNION 中的第二个或者后面的查询语句)、SUBQUERY (SELECT/WHERE之后包含了子查询)等 type:表示连接类型,性能由好到差的连接类型为NULL、system、const、eq_ref、ref、range、index、 all 。 possible_key:显示可能应用在这张表上的索引,一个或多个。 key:实际使用的索引,如果为NULL,则没有使用索引。 key_len:表示索引中使用的字节数,该值为索引字段最大可能长度,并非实际使用长度,在不损失精确性 的前提下,长度越短越好。 rows:MySQL认为必须要执行查询的行数,在innodb引擎的表中,是一个估计值,可能并不总是准确的。 filtered:表示返回结果的行数占需读取行数的百分比,filtered的值越大越好。
最左前缀法则:
如果索引了多列(联合索引),要遵守最左前缀法则。最左前缀法则指的是查询从索引的最左列开始,并且
不跳过索引中的列。如果跳跃某一列,索引将部分失效(后面的字段索引失效)。
create index idx_user_pro_age_sta on tb_user(profession,age,status);
explain select*from tb_user where profession= '软件工程' and age = 31 and status='0' #
explain select* from tb_user where profession= '软件工程' and age = 31;
explain select * from tb_user where profession= "软件工程";
#可以使用索引
explain select * from tb_user where age = 31 and status = '0';
explain select* from tb user where status = '0';
#不能使用索引
范围查询:联合索引中,出现范围查询,范围查询右侧的列索引失效
explain select * from tb_user where profession= '软件工程' and age > 30 and status = 'O';
#age右侧的索引没有用到
explain select *from tb_user where profession= '软件工程' and age >= 30 and status = '0';
#正常使用索引
索引列运算:不要在索引列上进行运算操作,索引将失效。
explain select * from tb_user where substring(phone,10,2)='15';
#不能使用索引,全表扫描
字符串不加引号:字符串类型字段使用时,不加引号,索引将失效。
。:
explain select * from tb_user where profession= '软件工程' and age = 31 and status = O;#status索引没走到
explain select *from tb_user where phone = 17799990015;#无法走索引
模糊查询:如果仅仅是尾部模糊匹配,索引不会失效。如果是头部模糊匹配,索引失效
explain select * from tb_user where profession= '软件%'#索引正常
explain select * from tb_user where profession= '%工程'#无法走索引
or连接的条件:用or分割开的条件,如果or前的条件中的列有索引,而后面的列中没有索引,那么涉及的索引都不会被用到。
explain select * from tb_user where id=10 or age = 23;
explain select * from tb_user where phone = '17799990017' or age = 23;
数据分布影响:如果MysQL评估使用索引比全表更慢,则不使用索引。
explain select * from tb_user where id>=0;#不会走索引,因为都满足这个条件,全表更快
sql提示:SQL提示,是优化数据库的一个重要手段,简单来说,就是在SQL语句中加入一些人为的提示来达到优化操作的目的。
use index:
explain select *from tb_user use index(idx_user_pro) where profession= '软件工程';#建议mysql使用哪个索引
ignore index:
explain select * from tb_user ignore index(idx_user_pro) where profession='软件工程';#告诉mysql不使用哪个索引
force index:
explain select * from tb_user force index(idx_user_pro) where profession= '软件工程';#强制mysql使用哪个索引
覆盖索引:尽量使用覆盖索引(查询使用了索引,并且需要返回的列,在该索引中已经全部能够找到),减少select *。
explain select id, profession from tb_user where profession='软件工程' and age=31 and status = '0';
explain select id,profession,age,status from tb_user where profession ='软件工程' and age=31 and status = '0'; #根据profession,age索引就能查到id,所以不用回表查询
explain select id,profession,age, status, name from tb_user where profession='软件工程' and age=31 and status = '0';#name字段没有索引,需要回表查询
explain select * from tb_user where profession='软件工程' and age = 31 and status = '0 ;
using index condition :查找使用了索引,但是需要回表查询数据
using where; using index:查找使用了索引,但是需要的数据都在索引列中能找到,所以不需要回表查询数据
前缀索引:当字段类型为字符串(varchar, text等),时,有时候需要索引很长的字符串,这会让索引变得很大,查询时,浪费大量的磁盘lO,影响查询效率。此时可以只将字符串的一部分前缀,建立索引,这样可以大大节约索引空间,从而提高索引效率。
create index idx_xxxx on table_name(column(n));
前缀长度:
可以根据索引的选择性来决定,而选择性是指不重复的索引值(基数)和数据表的记录总数的比值,索
引选择性越高则查询效率越高,唯一索引的选择性是1,这是最好的索引选择性,性能也是最好的。
select count(distinct email) / count(*) from tb_user ;
select count(distinct substring(email,1,5)) / count(*) from tb_user ;
求前缀的选择性
select count(distinct substring(email,1,10))/count(*) from tb_user;
create index idx_email_5 on tb_user(email(5));
索引设计原则:
1.针对于数据量较大,且查询比较频繁的表建立索引。
2.针对于常作为查询条件(where)、排序(order by)、分组(group by)操作的字段建立索引。
3.尽量选择区分度高的列作为索引,尽量建立唯一索引,区分度越高,使用索引的效率越高。
4.如果是字符串类型的字段,字段的长度较长,可以针对于字段的特点,建立前缀索引。
5.尽量使用联合索引,减少单列索引,查询时,联合索引很多时候可以覆盖索引,节省存储空间,避免
回表,提高查询效率。
6.要控制素引的数量,索引并不是多多益善,索引越多,维护索引结构的代价也就越大,会影响增删改
的效率。
7.如果索引列不能存储NULL值,请在创建表时使用NOT NULL约束它。当优化器知道每列是否包含
NULL值时,它可以更好地确定哪个索引最有效地用于查询。
1.批量插入
insert into table values(),()
2.手动提交事务
start transaction;
insert ...
insert ...
commit;
3.主键顺序插入
大批量插入数据:
如果一次性需要插入大批量数据,使用insert语句插入性能较低,此时可以使用MySQL数据库提供的load指令进行插入。操作如下:
#客户端连接服务端时,加上参数 --local-infile
mysql --local-infile -u root -p
#设置全局参数local-infile为1,开启从本地加载文件导入数据的开关
set global local-infile=1;
#执行load指令将准备好的数据,加载到表结构中,列直接按,分割,行之间按\n分割
load data local infile '/root/sql.log' into table 'tb_user' fields terminated by ',' lines terminated by '\n';
数据组织方式:
在InnoDB存储引擎中,表数据都是根据主键顺序组织存放的,这种存储方式的表称为索引组织表。
1.页分裂:页可以为空,也可以填充一半,也可以填充100%。每个页包含了2-N行数据,根据主键排列。
2.页合并:当删除一行记录时,实际上记录并没有被物理删除,只是记录被标记(flaged)为删除并且它的空间变得允许被其他记录声明使用。当页中删除的记录达到MERGE_THRESHOLD(默认为页的50%),InnoDB会开始寻找最靠近的页(前或后)看看是否可以将两个页合并以优化空间使用。
优化策略:
1.满足业务需求的情况下,尽量降低主键的长度
2.插入数据时,尽量选择顺序插入,选择使用AUTO_INCREMENT自增主键
3.尽量不要使用UUID做主键或者是其他自然主键,如身份证号
4.业务操作时,避免对主键的修改
1.using filesort:通过表的索引或全表扫描,读取满足条件的数据行,然后在排序缓冲区sort buffer中完成排序操作,所有不是通过索引直接返回排序结果的排序都叫FileSort排序
2.using index:通过有序索引顺序扫描直接返回有序数据,这种情况即为using index,不需要额外排序,操作效率高
#没有创建索引时,根据age, phone进行排序
explain select id,age,phone from tb_user order by age , phone;#using filesort
#创建索引
create index idx_user_age_phone_aa on tb_user(age,phone);
#创建索引后,根据age, phone进行升序排序
explain select id,age,phone from tb_user order by age , phone;#using index
#创建索引后,根据age, phone进行降序排序
explain select id,age,phone from tb_user order by age desc, phone desc ;
#创建索引2
create index idx_user_age_phone_aa on tb_user(age asc,phone desc);
#创建索引后,根据age升序, phone进行降序排序
explain select id,age,phone from tb_user order by age asc ,phone desc;#using index
优化策略:
1.根据排序字段建立合适的索引,多字段排序时,也遵循最左前缀法则(where条件中含有也算)。
2.尽量使用覆盖索引。
3.多字段排序,一个升序一个降序,此时需要注意联合索引在创建时的规则(ASC/DESC)。
4.如果不可避兔的出现filesort,大数据量排序时,可以适当增大排序缓冲区大小 sort
buffer_size(默认256k)。
limit优化:
用覆盖索引和子查询代替limit
select * from tb_sku order by id limit 9000000,10
select * from tb_sku a,(select id from tb_sku order by id limit 90000000,10)
count优化:
MylSAM引擎把一个表的总行数存在了磁盘上,因此执行count(*)的时候会直接返回这个数,效率很高;
InnoDB引擎就麻烦了,它执行count(*)的时候,需要把数据一行一行地从引擎里面读出来,然后累积计
数。
count的几种用法:
count(主键)
InnoDB引擎会遍历整张表,把每一行的主键id 值都取出来,返回给服务层。服务层拿到主键后,直接按
行进行累加(主键不可能为null)。
count(字段)
没有not null约束:InnoDB引擎会遍历整张表把每一行的字段值都取出来,返回给服务层,服务层判断是
否为null,个为null,订数系加。有not null约束: InnoDB引擎会遍历整张表把每一行的字段值都取出来,
返回给服务层,直接按行进行累加。
count ( 1)
InnoDB引擎遍历整张表,但不取值。服务层对于返回的每一行,放一个数字“1”进去,直接按行进行累
加。
count (s)
InnoDB引擎并不会把全部字段取出来,而是专门做了优化,不取值,服务层直接按行进行累
update优化:
where一定是根据索引字段更新,不然可能会导致行锁升级为表锁
视图(View)是一种虚拟存在的表。视图中的数据并不在数据库中实际存在,行和列数据来自定义视图的查询中使用的表,并且是在使用视图时动态生成的。
通俗的讲,视图只保存了查询的SQL逻辑,不保存查询结果。所以我们在创建视图的时候,主要的工作就落在创建这条SQL查询语句上。
创建:
CREATE [OR REPLACE]VIEW 视图名称(列名列表) AS SELECT语句[WITH[CASCADE|LOCAL|CHECK OPTION]
查询:
查看创建视图语句:SHOW CREATE VIEW 视图名称;
查看视图数据:SELECT * FROM 视图名称
修改:
方式一:CREATE[OR REPLACE] VIEW视图名称[(列名列表)]AS SELECT语句 WITH CASCADED| LOCAL][CHECK OPTION]
方式二:ALTER VIEW 视图名称[(列名列表)]AS SELECT语句 [WITH CASCADED | LOCAL]
[CHECK OPTION]
插入:
INSERT INTO 视图名 VALUES(字段1值,字段2值)
删除:
DROP VIEW IF EXISTS 视图名
视图的检查选项
当使用WTHCHECK OPTION子句创建视图时,MySQL会通过视图检查正在更改的每个行,例如插入,更新,删除,以使其符合视图的定义。M)SQL允许基于另一个视图创建视图,它还会检查依赖视图中的规则以保持一致性。为了确定检查的范围,mysql提供了两个选项:CASCADED和LOCAL,默认值为CASCADED。
CASCADE:比如,v2视图是基于v1视图的,如果在v2视图创建的时候指定了检查选项为 cascaded,但是v1视图创建时未指定检查选项。 则在执行检查时,不仅会检查v2,还会级联检查v2的关联视图v1。
LOCAL:比如,v2视图是基于v1视图的,如果在v2视图创建的时候指定了检查选项为 local ,但是v1视图创建时未指定检查选项。 则在执行检查时,知会检查v2,不会检查v2的关联视图v1。
视图的更新
要使视图可更新,视图中的行与基础表中的行之间必须存在一对一的关系。如果视图包含以下任何一项,则该视图不可更新;
1.聚合函数或窗口函数(SUM()、MIN()、MAX()、COUNT()等)
2.DISTINCT
3.GROUP BY
4.HAVING
5. UNION或者UNION ALL
视图的作用:
1.简单:视图不仅可以简化用户对数据的理解,也可以简化他们的操作。那些被经常使用的查询可以被
定义为视图,从而使得用户不必为以后的操作每次指定全部的条件。
2.安全:数据库可以授权,但不能授权到数据库特定行和特定的列上。通过视图用户只能查询和修改他
们所能见到的数据
3.数据独立:视图可帮助用户屏蔽真实表结构变化带来的影响。
案例:
1.为了保证数据库表的安全性,开发人员在操作tb_user表时,只能看到的用户的基本字段,屏蔽手机号和邮箱两个字段。
CREATE VIEW tb_user_view AS SELECT id,name,profession,age,gender,status,createTime FROM tb_user;
select * from tb_user_view;
2.查询每个学生所选修的课程(三张表联查),这个功能在很多的业务中都有使用到,为了简化操作,定义一个视图。
CREATE VIEW tb_stu_course_view AS SELECT s.name StudentName,s.no StudentNo,c.name CourceName FROM student s,student_course sc,course c WHERE s.id=sc.student_id AND sc.course_id=c.id;
存储过程是事先经过编译并存储在数据库中的一段SQL语句的集合,调用存储过程可以简化应用开发人员的很多工作,减少数据在数据库和应用服务器之间的传输,对于提高数据处理的效率是有好处的。
存储过程思想上很简单,就是数据库SQL语言层面的代码封装与重用。
特点:
1.封装、复用
2.可以接收参数,也可以返回数据
3.减少网络交互,效率提升
创建
CREATE PROCEDURE 存储过程名称([参数列表])
BEGIN
--SQL语句
END
注意:在命令行中,执行创建存储过程的SQL时,需要通过关键字delimiter 指定SQL语句的结束符。
调用
CALL 名称([参数])
CREATE PROCEDURE p1()
begin
select count(*) from student;
end;
call p1();
查看
SELECT * FROM information_schema.ROUTINES WHERE ROUTINE_SCHEMA='XXX';#查询指定数据库的存储过程及状态信息
SHOW CREATE PROCEDURE 存储过程名称;#查询某个存储过程的定义
删除
DROP PROCEDURE [IF EXISTS]存储过程名称;
1.系统变量:MySQL服务器提供,不是用户定义的,属于服务器层面。分为全局变量(GLOBAL)、会话变量(SESSION)。
查看系统变量:
SHOW [SESSION | GLOBAL ]VARIABLES;##查看所有系统变量
SH0W [SESSION |GLOBAL ] VARIABLES LIKE '......';##可以通过LKE模糊匹配方式查找变量
SELECT @@[SESSION]GLOBAL]系统变量名;##查看指定变量的值
设置系统变量:
SET [SESSION | GLOBAL] 系统变量名=值;
SET @@[SESSION | GLOBAL] 系统变量名=值;
如果没有指定SESSION/GLOBAL,默认是SESSION,会话变量。
mysql服务重新启动之后,所设置的全局参数会失效,要想不失效,可以在/etc/ny.cnf 中配置。
2.用户定义变量:用户定义变量是用户根据需要自己定义的变量,用户变量不用提前声明,在用的时候直接 用“@变量名”使用就可以。其作用域为当前连接。
赋值
SET @var_name = pr [,@var_name =expr)] ...;
SET @var_name := expr[,@var_name :=expr ] ... ;
SELECT @var_name := expr [,@var_name ;=expr] ...;
SELECT字段名INTO@var_name FROM表名;
使用
SELECT @var_name;
set @myname='zyj';
set @myage:=10;
set @mygender:='男',@myhobby='Golang';
select @myname,@myage,@mygender,@myhobby;
3.局部变量:局部变量是根据需要定义的在局部生效的变量,访问之前,需要DECLARE声明。可用作存储过程内的局部变量和输入参数,局部变量的范围是在其内声明的BEGIN…END块。
声明:
DECLARE 变量名 变量类型[DEFAULT ...];
变量类型就是数据库字段类型:INT、BIGINT、CHAR、VARCHAR、DATE、TIME等。
赋值:
SET 变量名=值;
SET 变量名:=值;
SELECT 字段名 INTO 变量名 FROM 表名...;
CREATE PROCEDURE p2()
BEGIN
DECLARE stu_count int default 0;
SELECT count(*) into stu_count FROM student;
SELECT stu_count;
END;
IF 条件1 THEN
...
ELSEIF 条件2 THEN --可选
...
ELSE --可选
...
END IF;
DROP PROCEDURE IF EXISTS p2; CREATE PROCEDURE p2() BEGIN DECLARE score INT DEFAULT 58; DECLARE result varchar(10); IF score>=85 then set result:='优秀'; ELSEIF score>=60 then set result:='及格'; ELSE set result:='不及格'; END IF; SELECT result; END; CALL p2();
case语句同样适用,具体参考前面
CREATE PROCEDURE 存储过程名称([IN/OUT/INOUT 参数名 参数类型])
BEGIN
--SQL语句
END;
DROP PROCEDURE IF EXISTS p2;
CREATE PROCEDURE p2(IN score int,OUT result varchar(10))
BEGIN
IF score>=85 then
set result:='优秀';
ELSEIF score>=60 then
set result:='及格';
ELSE
set result:='不及格';
END IF;
END;
CALL p2(68,@result);
SELECT @result;
While循环:
#先判定条件,如果条件为true,则执行逻辑,否则,不执行逻辑
WHILE 条件 DO
#SQL逻辑...
END WHILE;
DROP PROCEDURE IF EXISTS p2;
CREATE PROCEDURE p2(IN n int)
BEGIN
DECLARE count int default 0;
WHILE n>0 DO
SET count:=count+1;
SET n:=n-1;
end while;
END;
Repeat循环:
repeat是有条件的循环控制语句,当满足条件的时候退出循环。具体语法为:
#先执行一次逻辑,然后判定逻辑是否满足,如果满足,则退出。如果不满足,则继续下一次循环
REPEAT
SQL逻辑...
UNTIL 条件
END REPEAT;
DROP PROCEDURE IF EXISTS p2;
CREATE PROCEDURE p2(IN n int)
BEGIN
DECLARE count int default 0;
REPEAT
set count:=count+1;
set n:=n-1;
until n<=0
end repeat;
END;
Loop
LOOP实现简单的循环,如果不在set逻辑中增加退出循环的条件,可以用其来实现简单的死循环。LoOP可以配合一下两个语句使用:
LEAVE:配合循环使用,退出循环。
ITERATE:必须用在循环中,作用是跳过当前循环剩下的语句,直接进入下一次循环。
[begin_label:] LOOP
SQL逻辑…
END LOOP [end label];
LEAVE label;--退出指定标记的循环体
ITERATE label; --直接进入下一次循环
DROP PROCEDURE IF EXISTS p2;
CREATE PROCEDURE p2(IN n int)
BEGIN
DECLARE count int default 0;
sum:loop
if n<=0 then
leave sum;
end if;
set count:=count+1;
set n:=n-1;
end loop sum;
END;
游标:
游标(CURSOR)是用来存储查询结果集的数据类型,在存储过程和函数中可以使用游标对结果集进行循环的处理。游标的使用包括游标的声明、OPEN、FETCH和CLOSE,其语法分别如下。
声明游标:
DECLARE 游标名称 CURSOR FOR 查询语句;
打开游标:
OPEN 游标名称
获取游标记录:
FETCH 游标名称 INTO 变量 [,变量];
关闭游标:
CLOSE 游标名称;
CREATE PROCEDURE p(IN uage int) BEGIN DECLARE name varchar(10); DECLARE pro varchar(20); DECLARE u_cursor cursor for select name,profession from tb_user where age<=uage; #先声明变量,再声明游标 DROP TABLE IF EXISTS tb_user_pro; CREATE TABLE IF NOT EXISTS tb_user_pro( id int primary key auto_increment, name varchar(10), profession varchar(20) ); OPEN u_cursor; WHILE true DO fetch u_cursor into name,pro; INSERT INTO tb_user_pro values (null,name,pro); end while; close u_cursor; end;
条件处理程序(Handler)可以用来定义在流程控制结构执行过程中遇到问题时相应的处理步骤。具体语法为:
DECLARE handler_action HANDLERFOR condition_value [, condition_value] ... statement;
handler_action
CONTINUE:继续执行当前程序
EXIT:终止执行当前程序
condition_value
SQLSTATE sqlstate_value:状态码,如02000
SQLWARNING:所有以01开头的5QLSTATE代码的简写NOT FOUND:所有以02开头的SQLSTATE代码的简写
SQLEXCEPTION:所有没有被SQLWARNING 或 NOT FOUND捕获的SQLSTATE代码的简写
CREATE PROCEDURE p(IN uage int) BEGIN DECLARE name varchar(10); DECLARE pro varchar(20); DECLARE u_cursor cursor for select name,profession from tb_user where age<=uage; #先声明变量,再声明游标 DECLARE EXIT HANDLER FOR NOT FOUND CLOSE u_cursor; #声明一个条件处理程序,状态码满足02000时退出关闭游标 DROP TABLE IF EXISTS tb_user_pro; CREATE TABLE IF NOT EXISTS tb_user_pro( id int primary key auto_increment, name varchar(10), profession varchar(20) ); OPEN u_cursor; WHILE true DO fetch u_cursor into name,pro; INSERT INTO tb_user_pro values (null,name,pro); end while; close u_cursor; end;
存储函数是有返回值的存储过程,存储函数的参数只能是IN类型的。具体语法如下:
CREATE FUNCION存储函数名称([参数列表])
RETURNS type [characteristic ...]
BEGIN
--SQL语句
RETURN....;
END ;
characteristic说明:
DETERMINISTIC:相同的输入参数总是产生相同的结果
NO SQL:不包含SQL语句。
READS SQL DATA:包含读取数据的语句,但不包含写入数据的语句。
CREATE FUNCTION f(n INT)
RETURNS INT
BEGIN
DECLARE cnt int default 0;
while n>0 DO
set cnt:=cnt+1;
set n:=n-1;
end while;
RETURN cnt;
end;
SELECT f(100);
触发器是与表有关的数据库对象,指在insert/update/delete 之前或之后,触发并执行触发器中定义的SQL语句集合。触发器的这种特性可以协助应用在数据库端确保数据的完整性,日志记录,数据校验等操作。
使用别名OLD和NEW来引用触发器中发生变化的记录内容,这与其他的数据库是相似的。现在触发器还只支持行级触发,不支持语句级触发。
创建:
CREATE TRIGGER trigger_name
BEFORE/AFTER INSERT/UPDATE/DELETE
ON tbl_name FOR EACH ROW--行级触发器
BEGIN
trigger_stmt ;
END;
查看:
SHOW TRIGGERS;
删除:
DROP TRIGGER [schema_name.]trigger name;--如果没有指定schema_name,默认为当前数据库。
CREATE TRIGGER tb_user_insert_trigger
AFTER INSERT ON student FOR EACH ROW
BEGIN
INSERT INTO user_logs(ID, OPERATION, OPERATE_TIME, OPERATE_ID, OPERATE_PARAMS) VALUES
(null,'INSERT',now(),new.id,concat('插入的数据内容为:id=',new.id,'name=',new.name,'id=',new.no));
end;
锁是计算机协调多个进程或线程并发访问某一资源的机制。在数据库中,除传统的计算资源(CPU、RAM、I/O)的争用以外,数据也是一种供许多用户共享的资源。如何保证数据并发访问的一致性、有效性是所有数据库必须解决的一个问题,锁冲突也是影响数据库并发访问性能的一个重要因素。从这个角度来说,锁对数据库而言显得尤其重要,也更加复杂。
MYSQL中,按照锁的粒度分,分为以下三类:
1.全局锁:锁定数据库中的所有表。
2.表级锁:每次操作锁住整张表。
3.行级锁:每次操作锁住对应的行数据。
全局锁就是对整个数据库实例加锁,加锁后整个实例就处于只读状态,后续的DML的写语句,DDL语句,已经更新操作的事务提交语句都将被阻塞。
其典型的使用场景是做全库的逻辑备份,对所有的表进行锁定,从而获取一致性视图,保证数据的完整性。
flush tables with read lock;
#加锁
mysqldump -uroot -p 1234 test > test.sql;
unlock tables;
全局锁存在的问题:
1.如果在主库上备份,那么在备份期间都不能执行更新,业务基本上就得停摆。
2.如果在从库上备份,那么在备份期间从库不能执行主库同步过来的二进制日志(binlog),会导致主从
延迟。
在InnoDB引擎中,我们可以在备份时加上参数–single-transaction参数来完成不加锁的一致性数据备份。
mysqldump --single-transaction -uroot -p123456 itcast > itcast.sql
表级锁,每次操作锁住整张表。锁定粒度大,发生锁冲突的概率最高,并发度最低。应用在MyISAM、InhoDB、BDB等存储引擎中。
对于表级锁,主要分为以下三类:
1.表锁
2.元数据锁(meta data lock,MDL)
3.意向锁
表锁:
1.表共享读锁(read lock)
2.表独占写锁(write lock)
语法:
1.加锁:lock tables 表名...read/write
2.释放锁:unlock tables/客户端断开连接
读锁:
读锁会使别的客户端的写阻塞,使自己客户端写操作报错
写锁:
元数据锁:
MDL加锁过程是系统自动控制,无需显式使用,在访问一张表的时候会自动加上。MDL锁主要作用是维护表元数据的数据一致性,在表上有活动事务的时候,不可以对元数据进行写入操作。为了避免DML与DDL冲突,保证读写的正确性。
在MySQL5.5中引入了MDL,当对一张表进行增删改查的时候,加MDL读锁(共享);当对表结构进行变更操作的时候,加MDL写锁(排他)。
意向锁:
为了避免DML在执行时,加的行锁与表锁的冲突,在InnoDB中引入了意向锁,使得表锁不用检查每行数据是否加锁,使用意向锁来减少表锁的检查。
意向锁分为两种:
1.意向共享锁(IS):由语句select...lock in share mode添加。与表锁共享锁(read)兼容,与表锁排它
锁(write)互斥
2.意向排他锁(IX):由insert、update、delete、select...for update添加。与表锁共享锁(read)与排
它锁(write)都互斥。
意向锁之间不会互斥。
SELECT * FROM student WHERE id=1 LOCK IN SHARE MODE;
行级锁,每次操作锁住对应的行数据。锁定粒度最小,发生锁冲突的概率最低,并发度最高。应用在InnoDB存储引擎中。
InnoDB的数据是基于索引组织的,行锁是通过对索引上的索引项加锁来实现的,而不是对记录加的锁。对于行级锁,主要分为以下三类:
1.行锁(Record Lock)∶锁定单个行记录的锁,防止其他事务对此行进行update和delete。在RC、RR隔离
级别下都支持。
2.间隙锁(Gap Lock):锁定索引记录间隙〈不含该记录),确保索引记录间隙不变,防止其他事务在这个
间隙进行insert,产生幻读。在RR隔离级别下都支持。
3.临键锁(Next-Key Lock)∶行锁和间隙锁组合,同时锁住数据,并锁住数据前面的间隙Gap。在RR隔
离级别下支持。
lnnoDB实现了以下两种类型的行锁:
1.共享锁(S)∶允许一个事务去读一行,阻止其他事务获得相同数据集的排它锁。
2.排他锁(X)∶允许获取排他锁的事务更新数据,阻止其他事务获得相同数据集的共享锁和排他锁。
默认情况下,InnoDB在 REPEATABLE READ事务隔离级别运行,InnoDB使用next-key锁进行搜索和索引扫描,以防止幻读。
1.针对唯一索引进行检索时,对已存在的记录进行等值匹配时,将会自动优化为行锁。
2. InnoDB的行锁是针对于索引加的锁,不通过索引条件检索数据,那么InnoDB将对表中的所有记录加
锁,此时就会升级为表锁。
间隙锁:间隙锁是左闭右开的
默认情况下,InnoDB在 REPEATABLE READ事务隔离级别运行,InnoDB使用next-key锁(全局锁+行锁)进行搜索和索引扫描,以防止幻读。
1.索引上的等值查询(唯一索引),给不存在的记录加锁时,优化为间隙锁。
2.索引上的等值查询(普通索引),向右遍历时最后一个值不满足查询需求时,next-key lock退化为间隙锁。
3.索引上的范围查询(唯一索引)–会访问到不满足条件的第一个值为止。
注意:间隙锁唯一目的是防止其他事务插入间隙。间隙锁可以共存,一个事务采用的间隙锁不会阻止另一个事务在同一间隙上采用间隙锁。NEXT-KEY锁分为X和S,X锁不能与其他锁共享。也就是说多个事务不能同时对相同范围施加X锁。也不能一个施加X锁,其他施加S锁。
查询时对记录加行级锁
//对读取的记录加共享锁(S型锁)
select ... lock in share mode;
//对读取的记录加独占锁(X型锁)
select ... for update;
除了上面这两条锁定读语句会加行级锁之外,update 和 delete 操作都会加行级锁,且锁的类型都是独占锁(X型锁)。
逻辑存储结构:
表空间(ibd文件):一个mysql实例可以对应多个表空间,用于存储记录、索引等数据
段:分为数据段、索引段、回滚段、InnoDB是索引组织表,数据段就是B+树的叶子节点,索引段即为B+树的非叶子节点。段用来管理多个Extent(区)。
区:区,表空间的单元结构,每个区的大小为1M。默认情况下,InnoDB存储引擎页大小为16K,即一个区中一共有64个连续的页。
页:是InnoDB存储引擎磁盘管理的最小单元,每个页的大小默认为16KB。为了保证页的连续性,InnoDB存储引擎每次从磁盘申请4-5个区。
行:InnoDB存储引擎数据是按行进行存放的。
架构:
Buffer Pool:缓冲池是主内存中的一个区域,里面可以缓存磁盘上经常操作的真实数据,在执行增删改查操作时,先操作缓冲池中的数据(若缓冲池没有数据,则从磁盘加载并缓存),然后再以一定频率刷新到磁盘,从而减少磁盘IO,加快处理速度。
Change Buffer:更改缓冲区(针对于非唯一二级索引页),在执行DML语句时,如果这些数据Page没有在Buffer Pool中,不会直接操作磁盘,而会将数据变更存在更改缓冲区Change Buffer 中,在未来数据被读取时,再将数据合并恢复到Buffer Pool中,再将合并后的数据刷新到磁盘中。
缓冲池以Page页为单位,底层采用链表数据结构管理Page。根据状态,将Page分为三种类型:
free page:空闲page,未被使用。
clean page:被使用page,数据没有被修改过。
dirty page:脏页,被使用page,数据被修改过,也中数据与磁盘的数据产生了不一致。
Change Buffer的意义是什么?
与聚集索引不同,二级索引通常是非唯一的,并且以相对随机的顺序插入二级索引。同样,删除和更新
可能会影响索引树中不相邻的二级索引页,如果每一次都操作磁盘,会造成大量的磁盘IO。有了
ChangeBuffer之后,我们可以在缓冲池中进行合并处理,减少磁盘I0。
Adaptive Hash Index:自适应hash索引,用于优化对Buffer Pool数据的查询。InnoDB存储引擎会监控对表上各索引页的查询,如果观察到hash索引可以提升速度,则建立hash索引,称之为自适应hash索引。
自适应哈希索引,无需人工干预,是系统根据情况自动完成。
参数: adaptive_hash_index
Log Buffer:日志缓冲区,用来保存要写入到磁盘中的log日志数据(redo log ,undo log),默认大小为16MB,日志缓冲区的日志会定期剧新到磁盘中。如果需要更新、插入或删除许多行的事务,增加日志缓冲区的大小可以节省磁盘l/O。
参数:
innodb_log_buffer_size:缓冲区大小
innodb_flush_log_at_trx_commit:日志刷新到磁盘时机
1:日志在每次事务提交时写入并刷新到进盘
0:每秒将日志写入并刷新到磁盘一次。
2:日志在每次事务摸交后写入,并每秒刷新到磁盘一次。
System Tablespace:系统表空间是更改缓冲区的存储区域。如果表是在系统表空间而不是每个表文件或通用表空间中创建的,它也可能包含表和索引数据。(在MySQL5.x版本中还包含InnoDB数据字具、undolog等)
参数:innodb_data_file_path
File-Per-Table Tablespaces:每个表的文件表空间包含单个InnoDB表的数据和索引,并存储在文件系统上的单个数据文件中。
参致: innodb_file_per_table
General Tablespaces;通用表空间,需要通过CREATE TABLESPACE语法创建通用表空间,在创建表时,可以指定该表空间。
Undo Tablespaces﹔撤销表空间,MySQL实例在初始化时会自动创建两个默认的undo表空间(初始大小16M),用于存储undo log日志。
Temporary Tablespaces: InnoDB使用会话临时表空间和全局临时表空间。存储用户创建的临时表等数据。
Doublewrite Buffer Files:双写缓冲区,innoDB引擎将数据页从Buffer Poal刷新到磁盘前,先将数据页写入双写缓冲区文件中,便于系统异常时恢复数据。
#ib_16384_0.dblwr
#ib_16384_1.dblwr
Redo Log:重做日志,是用来实现事务的持久性。该日志文件由两部分组成:重做日志缓冲(redo log buffer)以及重做日志文件(redo log),前者是在内存中,后者在磁盘中。当事务提交之后会把所有修改信息都会存到该日志中,用于在刷新脏页到磁盘时,发生错误时,进行数据恢复使用。
以循环方式写入重做日志文件,涉及两个文件:ib_logfile0 ib_logfile1
1.Master Thread
核心后台线程,负责调度其他线程,还负责将缓冲池中的数据异步刷新到磁盘中,保持数据的一致性,还包括脏页的刷新、合并插入缓存、undo页的回收。
2.IO Thread
在InnoDB存储引擎中大量使用了AIO来处理IO请求,这样可以极大地提高数据库的性能,而IOThread主要负责这些lO请求的回调。
3.Purge Thread
主要用于回收事务已经提交了的undo log,在事务提交之后,undo log可能不用了,就用它来回收。
4. Page Cleaner Thread
协助Master Thread刷新脏页到磁盘的线程,它可以减轻Master Thread的工作压力,减少阻塞。
redo log保证事务的持久性
redo.log:重做日志,记录的是事务提交时数据页的物理修改,是用来实现事务的持久性。
该日志文件由两部分组成:重做日志缓冲(redo log buffer)以及重做日志文件(redo log file),前者是在内存中,后者在磁盘中。当事务提交之后会把所有修改信息都存到该日志文件中,用于在刷新脏页到磁盘,发生错误时,进行数据恢复使用。每隔一段时间就会清理redo.log。
undo log保证事务的原子性
回滚日志,患于记录数据被修改前的信息,作用包含两个:提供回滚和MVCC(多版本并发控制)
undo log和redo log记录物理日志不一样,它是逻辑日志。可以认为当delete一条记录时,undo log中会记录一条对应的insert记录,反之亦然,当update一条记录时,它记录一条对应相反的update记录。当执行rollback时,就可以从undo log中的逻辑记录读取到相应的内容并进行回滚。
Undo log销毁: undo log在事务执行时产生,事务提交时,并不会立即删除undo log,因为这些日志可能还用于MVCC.。
Undo log存储: undo log采用段的方式进行管理和记录,存放在前面介绍的rollback segment 回滚段中,内部包含1024个undo logsegment。
当insert的时候,产生的undo log日志只在回滚时需要,在事务提交后,可被立即删除。
而update、 delete的时候,产生的undo log日志不仅在回滚时需要,在快照读时也需要,不会立即被删除。
当前读
读取的是记录的最新版本,读取时还要保证其他并发事务不能修改当前记录,会对读取的记录进行加
锁。对于我们日常的操作,如:select...lock in share mode(共享锁),select ... for update、update、
insert、delete(排他锁)都是一种当前读。
快照读
简单的select(不加锁)就是快照读,快照读,读取的是记录数据的可见版本,有可能是历史数据,不加
锁,是非阻塞读。. Read Committed:每次select,都生成一个快照读。
Repeatable Read:开启事务后第一个select语句才是快照读的地方。
Serializdble:快照读会退化为当前读。
MVCC
全称Multi-Version Concurrency Control,多版本并发控制。指维护一个数据的多个版本,使得读写操作
没有冲突,快照读为MySQL实现MVCC提供了一个非阻塞读功能。MVCC的具体实现,还需要依赖于数
据库记录中的三个隐式字段、undo log日志、readView.
记录中的隐藏字段:
ibd2sdi student.ibd #查看ibd文件,会显示隐藏字段
readview:
ReadView (读视图)是快照读SQL执行时MVCC提取数据的依据,记录并维护系统当前活跃的事务(未提交的) id。
ReadView中包含了四个核心字段:
readview:
不同的隔离级别,生成ReadView的时机不同:
READ COMMITTED∶在事务中每一次执行快照读时生成ReadView。
REPEATABLE READ: 仅在事务中第一次执行快照读时生成ReadView,后续复用该ReadView。
Mysql数据库安装完成后,自带了一下四个数据库,具体作用如下:
mysql客户端:
语法:
mysql [options] [database]选项:
-u, --user=name
#指定用户名
-p, --password[=name]
#指定密码
-h, --host=name
#指定服务器IP或域名
-P,--port=port
#指定连接端口
-e ,--execute=name
#执行SQL语句并退出
mysql -uroot -p123456 -e "select * from stu"
mysqladmin是一个执行管理操作的客户端程序。可以用它来检查服务器的配置和当前状态、创建并删除数据库等。
mysqladmin --help
mysqladmin -uroot -p123456 drop 'test01';
mysqladmin -uroot -p123456 vserion;
mysqlbinlog由于服务器生成的二进制日志文件以二进制格式保存,所以如果想要检查这些文本的文本格式,就会使用到mysqlbinlog 日志管理工具。
语法:
mysqlbinlog [options] log-files1 log-files2 ...
选项:
-d, --database=name 指定数据库名称,只列出指定的数据库相关操作。
-o, --offset=# 忽略掉日志中的前n行命令。
-r,--result-file=name 将输出的文本格式日志输出到指定文件。
-s, --short-form 显示简单格式,省略掉一些信息。
--start-datatime=date1 --stop-datetime=date2 指定日期间隔内的所有日志。
--start-position=pos1 --stop-position=pos2 指定位置间隔内的所有日志。
mysqlshow:客户端对象查找工具,用来很快地查找存在哪些数据库、数据库中的表、表中的列或者索引。
语法:
mysqlshow [options] [db_name [table_name [col_name]]]
选项:
--count 显示数据库及表的统计信息(数据库,表均可以不指定)
-i 显示指定数据库或者指定表的状态信息
示例:
#查询每个数据库的表的数量及表中记录的数量
mysqlshow -uroot -p2143 --count
#查询test库中每个表中的字段数,及行数
mysqlshow -uroot -p2143 test --count
#查询test库中book表的详细情况
mysqlshow -uroot -p2143 test book --count
mysqldump:客户端工具用来备份数据库或在不同数据库之间进行数据迁移。备份内容包含创建表,及插入表的SQL语句。
语法: mysqldump [options] db_name [tables] mysqldump [options] --database/-B db1 [db2 db3...] mysqldump [options] --all-databases/-A 连接选项: -u, --user=name 指定用户名 -p,--password[=name] 指定密码 -h, --host=name 指定服务器ip或域名 -P,--port=# 指定连接端口 输出选项: --add-drop-database 在每个数据库创建语句前加上drop database语句 --add-drop-table 在每个表创建语句前加上drop table语句,默认开启;不开启(--skip-add-drop-table) -n,--no-create-db 不包含数据库的创建语句 -t, --no-create-info 不包含数据表的创建语句 -d --no-data 不包含数据 -T, --tab=name 自动生成两个文件:一个.sql文件,创建表结构的语句;一个.txt文件,数据文件
mysqlimport:是客户端数据导入工具,用来导入mysqldump加-T参数后导出的文本文件。
语法:
mysqlimport [options] db_name textfile1 [textfile2...]
示例:
mysqlimport-uroot -p2143 test /tmp/city.txt
如果导入sql文件,可以使用mysql中的source指令:
语法:
source /root/xxxxx.sql
错误日志是MySQL中最重要的日志之一,它记录了当mysqld启动和停止时,以及服务器在运行过程中发生任何严重错误时的相关信息。当数据库出现任何故障导致无法正常使用时,建议首先查看此日志。
该日志是默认开启的,默认存放目录/var/log/,默认的日志文件名为 mysqld.log。查看日志位置:
show variables like '%log_error%'
二进制日志(BINLOG)记录了所有的DDL(数据定义语言)语句和DML(数据操纵语言)语句,但不包括数据查询(SELECT、SHOW)语句。
作用:1.灾难时的数据恢复;2.MySQL的主从复制。
在MySQL8版本中,默认二进制日志是开启着的,涉及到的参数如下:
show variables like '%log_bin%'
日志格式:
MySQL服务器中提供了多种格式来记录二进制日志,具体格式及特点如下:
show variables like '%binlog_format%';
statement记录的是数据变更的sql语句
row记录的是变更行,变更之前和变更之后的数据状态信息
日志查看:
由于日志是以二进制方式存储的,不能直接读取,需要通过二进制日志查询工具mysqlbinlog来查看,具体语法:
mysqlbinlog[参数选项] logfilename
参数选项:
-d 指定数据库名称,只列出指定的数据库相关操作。
-o 忽略掉日志中的前n行命令。
-v 将行事件(数据变更)重构为SQL语句
-w 将行事件(数据变更)重构为SQL语句,并输出注释信息
日志删除:
对于比较繁忙的业务系统,每天生成的binlog数据巨大,如果长时间不清除,将会占用大量磁盘空间。可以通过以下几种方式清理日志:
也可以在mysql的配置文件中配置二进制日志的过期时间,设置了之后,二进制日志过期会自动删除。
show variables like '%binlog_expire_logs_seconds%';
查询日志中记录了客户端的所有操作语句,而二进制日志不包含查询数据的SQL语句。默认情况下,查询日志是未开启的。如果需要开启查询日志,可以设置以下配置︰
show variables like '%general%';
修改MYSQL的配置文件/etc/my.cnf文件,添加如下内容:
#该选项用来开启查询日志,可选值:0或者1 ;0代表关闭,1代表开启
general_log=1
#设置日志的文件名,如果没有指定,默认的文件名为host_name.log
general_log_file=mysql_query.log
慢查询日志记录了所有执行时间超过参数long_query_time设置值并且扫描记录数不小于min_examined_row_limit的所有的SQL语句的日志,默认未开启。long_query_time默认为10秒,最小为0,精度可以到微秒。
启动需要修改etc/my.cnf配置文件
#慢查询日志
slow query log=1
#执行时间参数
long _query time=2
默认情况下,不会记录管理语句,也不会记录不使用索引进行查找的查询。可以使用log_slow_admin_statements和更改此行为log _queries_not_using_indexes,如下所述。
#记录执行较慢的管理语句
log_slow_admin_statements =1
#记录执行较慢的未使用索引的语句
log_queries_not_using indexes =1
主从复制是指将主数据库的DDL和DML操作通过二进制日志传到从库服务器中,然后在从库上对这些日志重新执行(也叫重做),从而使得从库和主库的数据保持同步。
MySQL支持一台主库同时向多台从库进行复制,从库同时也可以作为其他从服务器的主库,实现链状复制。
MySQL复制的有点主要包含以下三个方面:
1.主库出现问题,可以快速切换到从库提供服务。
2.实现读写分离,降低主库的访问压力。
3.可以在从库中执行备份,以避免备份期间影响主库服务。
原理:
从上图来看,复制分成三步:
1. Master主库在事务提交时,会把数据变更记录在二进制日志文件 Binlog 中。
2. 从库读取主库的二进制日志文件 Binlog,写入到从库的中继日志 Relay Log 。
3. slave重做中继日志中的事件,将改变反映它自己的数据。
主从配置搭建:
主库配置:
1.修改配置文件 /etc/my.cnf
#mysql服务ID,保证整个集群环境中唯一,取值范围:1~2^32-1,默认是1
server-id=1
#是否只读,1代表只读,0代表读写
read-only=0
#忽略的数据,指不需要同步的数据库
#binlog-ignore-db=mysql
#指定同步的数据库
#binlog-do-db=db01
2.重启mysql
systemctl restart mysqld
3.登录mysql,创建远程连接的账号,并授予主从复制权限
#创建用户,并设置密码,改用户可在任意主机连接该mysql服务
CREATE USER 'yogen'@'%' IDENTIFIED BY '123456';
#为用户分配主从复制权限
GRANT REPLICATION SLAVE ON *.* TO 'yogen'@'%';
通过指令,查看二进制日志坐标
show master status;
从库配置:
1.修改配置文件 /etc/my.cnf
#mysql服务ID,保证整个集群环境中唯一,取值范围:1~2^32-1,和主库不一样即可
server-id=2
#是否只读,1代表只读,0代表读写
read-only=1
2.重启mysql
systemctl restart mysqld
3.登陆mysql,设置主库配置
8.0.23写法
CHANGE REPLICATION SOURCE TO SOURCE_HOST='xxx.xxx',SOURCE_USER='xxx',SOURCE_PASSWORD='xxx',SOURCE_LOG_FILE='xxx',SOURCE_LOG_POS=xxx;
8.0.23之前版本语法
CHANGE MASTER TO MASTER_HOST='xxx.xxx',SOURCE_USER='xxx',SOURCE_PASSWORD='xxx',SOURCE_LOG_FILE='xxx',SOURCE_LOG_POS=xxx;
开启同步操作:
start replica #8.0.22之后
start slave #8.2.22之前
查看主从同步状态
show replica status #8.0.22之后
show slave status #8.0.22之前
随着互联网及移动互联网的发展,应用系统的数据量也是成指数式增长,若采用单数据库进行数据存储,存在以下性能瓶颈:
1. I/O瓶颈:热点数据太多,数据库缓存不足,产生大量磁盘IO,效率较低。请求数据太
多,带宽不够,网络IO瓶颈。
2. CPU瓶颈:排序、分组、连接查询、聚合统计等SQL会耗费大量的CPU资源,请求数太
多CPU出现瓶颈。
垂直拆分:1.垂直分库 2.垂直分表
水平拆分:1.水平分库 2.水平分表
垂直拆分:
垂直分库:以表为依据,根据业务将不同表拆分到不同库中。
特点:
1.每个库的表结构都不一样。
2.每个库的数据也不一样。
3.所有库的并集是全量数据。
垂直分表:以字段为依据,根据字段属性将不同字段拆分到不同表中
特点:
1.每个表的结构都不、样。
2.每个表的数据也不一样,一般通过一列(主键/外键)关联。
3.所有表的并集是全量数据。
水平拆分:
水平分库:以字段为依据,按照一定策略,将一个库的数据拆分到多个库中。
特点:
1.每个库的表结构都一样。
2.每个库的数据都不一样。
3.所有库的并集是全量数据。
水平分表:以字段为依据,按照一定策略,将一个表的数据拆分到多个表中。
特点:
1.每个表的表结构都一样。
2.每个表的数据都不一样。
3.所有表的并集是全量数据。
sharding]DBC:基于AOP原理,在应用程序中对本地执行的SQL进行拦截,解析、改写、路由处理。需要自行编码配置实现,只支持java语言,性能较高。
MyCat:数据库分库分表中间件,不用调整代码即可实现分库分表,支持多种语言,性能不及前者。
分库分表所带来的问题:
1.事务不一致问题:由于分库分表把数据分布在不同库甚至不同服务器,不可避免会带来分布式事务问
题。
2.跨节点关联查询:但垂直分库后[商品信息]和[店铺信息]不在一个数据库,甚至不在一台服务器,无法
进行关联查询。可将原关联查询分为两次查询,第一次查询的结果集中找出关联数据id,然后根据id发起
第二次请求得到关联数后将获得到的数据进行拼接。
3.分页、排序问题:跨节点多库进行查询时,limit分页、order by排序等问题,就变得比较复杂了。需要
先在不同的分片节点中将数据进行排序并返回,然后将不同分片返回的结果集进行汇总和再次排序。
mysql集群的部署:
1.安装docker
2.docker中启动主服务器
在/home/yogen/mysql/master/conf下创建my.cnf
[mysqld] I
#服务器唯一id,默认值1
server-id=1
#设置日志格式,默认值ROW
binlog_format=STATEMENT
#二进制日志名,默认binlog
# log-bin=binlog
#设置需要复制的数据库,默认复制全部数据库
#binlog-do-db=mytestdb
#设置不需要复制的数据库
#binlog-ignore-db=mysql
#binlog-ignore-db=infomation_schema
docker run -d -p 9904:3306 -v /home/yogen/mysql/master/conf:/etc/mysql/conf.d -v /home/yogen/mysql/master/data:/var/lib/mysql -e MYSQL_ROOT_PASSWORD=123456 --name=mysql-master mysql:latest
3.进入容器内部创建用户
#进入容器:env LANG=C.UTF-8避免容器中显示中文乱码
docker exec -it mysql-master env LANG=C.UTF-8 /bin/bash#进入容器内的mysql命令行
mysql -uroot -p
#修改默认密码校验方式
ALTER USER 'root'@'%' IDENTIFIED WITH mysql_native_password BY '123456';
--创建slave用户
CREATE USER 'slave'@'%';
--设置密码
ALTER USER 'slave' @'%' IDENTIFIED WITH mysql_native_password BY'123456';
--授予复制权限
GRANT REPLICATION SLAVE ON *.* TO 'slave'@'%';
--刷新权限
FLUSH PRIVILEGES;
4.主机查询master状态
SHOW MASTER STATUS;
记下File和Position的值。执行完此步骤后不要再操作主服务器MYSQL,防止主服务器状态值变化。
5.准备从服务器
docker run -d -p 9905:3306 -v /home/yogen/mysql/slave1/conf:/etc/mysql/conf.d -v /home/yogen/mysql/slave1/data:/var/lib/mysql -e MYSQL_ROOT_PASSWORD=123456 --name=mysql-slave1 mysql:latest
6.在/home/yogen/mysql/slave1/conf创建my.cnf
[ mysqld]
#服务器唯一id,每台服务器的id必须不同,如果配置其他从机,注意修改id
server-id=2
#中继日志名,默认x××××XXXXXXx-relay-bin
#relay-log=relay-bin
7.在从机上配置主从关系
CHANGE MASTER TO MASTER_HOST='172.17.0.2',
MASTER_USER= 'slave',MASTER_PASSWORD='123456',MASTER_PORT=3306,
MASTER_LOG_FILE='binlog.000003',MASTER_LOG_POS= 1332;
8.实现主从同步
启动从机的复制功能,执行SQL
START SLAVE;
--查看状态
SHOW SLAVE STATUS\G
服务准备:
服务准备:
水平分片的id需要在业务层实现,不能依赖数据库的主键自增,可以使用一些分布式id策略
inline表达式:配置的简化与一体化是行表达式所希望解决的两个主要问题。
在繁琐的数据分片规则配置中,随着数据节点的增多,大量的重复配置使得配置本身不易被维护。通过行莉达式可以有效地简化数据节点配置工作量。
语法说明:行表达式的使用非常直观,只需要在配置中使用
e
x
p
r
e
s
s
i
o
n
或
{ expression }或
expression或->{ expression }标识行表达式即可。目前支持数据节点和分片算法这两个部分的配置。行表达式的内容使用的是Groovy的语法,Groovy 能够支持的所有操作,行表达式均能够支持。
${begin…end}表示范围区间
[
u
n
i
t
1
,
u
n
i
t
2
,
u
n
i
t
x
]
表示枚举值行表达式中如果出现连续多个
{[unit1,unit2,unit_x]}表示枚举值 行表达式中如果出现连续多个
[unit1,unit2,unitx]表示枚举值行表达式中如果出现连续多个{ expression }或$->{ expression }表达式,整个表达式最终的结果将会根据每个子表达式的结果进行笛卡尔组合。
${['online', 'offline']}_table${1..3}
最终解释为:online_table1,online_table2,online_table3,offline_table1, offline_table2,offline_table3
db0.t_order0、db0.t_order1、db1.t_order0、db1.t_order1
可以替代为
db$->{0..1}.t_order$->{0..1}
分片算法:
分片算法类型:自动分片算法、标准分片算法、复合分片算法
SNOWFLAKE:在分片规则配置模块可配置每个表的主键生成策略,默认使用雪花算法 (snowflake)生成64bit的长整型数据。
雪花算法是由Twitter公布的分布式主键生成算法,它能够保证不同进程主键的不重复性,以及相同进程主键的有序性。
雪花算法的实现原理:
在同一个进程中,它首先是通过时间位保证不重复,如果时间相同则是通过序列位保证。同时由于时间位是单调递增的,且各个服务器如果大体做了时间同步,那么生成的主键在分布式环境可以认为是总体有序的,这就保证了对索引字段的插入的高效性。例如MySQL的Innodb 存储引擎的主键。使用雪花算法生成的主键,二进制表示形式包含4部分,从高位到低位分表为:1bit符号位、41bit时间戳位、10bit工作进程位以及12bit序列号位。符号位(1bit)
分库:
1.DBResolver 为 GORM 提供了多个数据库支持,支持以下功能:
2.支持多个 sources、replicas
3.读写分离
4.根据工作表、struct 自动切换连接
5.手动切换连接
6.Sources/Replicas 负载均衡
7.适用于原生 SQL
8.事务
package main import ( "gorm.io/driver/mysql" "gorm.io/gorm" "gorm.io/gorm/logger" "gorm.io/gorm/schema" "gorm.io/plugin/dbresolver" ) func main() { dsn := "" db, err := gorm.Open(mysql.Open(dsn), &gorm.Config{ SkipDefaultTransaction: false, DisableForeignKeyConstraintWhenMigrating: true, Logger: logger.Default, NamingStrategy: schema.NamingStrategy{ SingularTable: true, }, }) if err != nil { panic(err) } db.Use(dbresolver.Register(dbresolver.Config{ // use `db2` as sources, `db3`, `db4` as replicas Sources: []gorm.Dialector{mysql.Open("db2_dsn")}, Replicas: []gorm.Dialector{mysql.Open("db3_dsn"), mysql.Open("db4_dsn")}, // sources/replicas load balancing policy Policy: dbresolver.RandomPolicy{}, // print sources/replicas mode in logger ResolverModeReplica: true, }).Register(dbresolver.Config{ // use `db1` as sources (DB's default connection), `db5` as replicas for `User`, `Address` Replicas: []gorm.Dialector{mysql.Open("db5_dsn")}, }, &User{}, &Address{}).Register(dbresolver.Config{ // use `db6`, `db7` as sources, `db8` as replicas for `orders`, `Product` Sources: []gorm.Dialector{mysql.Open("db6_dsn"), mysql.Open("db7_dsn")}, Replicas: []gorm.Dialector{mysql.Open("db8_dsn")}, }, "orders", &Product{}, "secondary"))
package main import ( "fmt" "time" "gorm.io/driver/mysql" "gorm.io/gorm" "gorm.io/gorm/logger" "gorm.io/gorm/schema" "gorm.io/plugin/dbresolver" ) const dsn1 = "root:123456@tcp(127.0.0.1:9904)/course?charset=utf8mb4&parseTime=True&loc=Local" const dsn2 = "root:123456@tcp(127.0.0.1:9905)/user?charset=utf8mb4&parseTime=True&loc=Local" type User struct { ID uint Name string Age uint Score float32 } type Course struct { ID uint Name string Time time.Time } var ( db *gorm.DB err error ) func insertUser(u *User) error { return db.Create(&u).Error } func insertCourse(c *Course) error { return db.Create(&c).Error } func SelectUser() (users []User, err error) { err = db.Find(&users).Error return } func SelectCourse() (course []Course, err error) { err = db.Find(&course).Error return } func main() { db, err = gorm.Open(mysql.Open(dsn1), &gorm.Config{ SkipDefaultTransaction: false, DisableForeignKeyConstraintWhenMigrating: true, Logger: logger.Default, NamingStrategy: schema.NamingStrategy{ SingularTable: true, }, }) if err != nil { panic(err) } db.Use(dbresolver.Register(dbresolver.Config{ Sources: []gorm.Dialector{mysql.Open(dsn2)}, }, User{}).Register(dbresolver.Config{}, Course{})) u := &User{ ID: 1, Name: "yogen", Age: 22, Score: 99.1, } err := insertUser(u) if err != nil { panic(err) } c := &Course{ ID: 1, Name: "数据分析", Time: time.Now(), } err = insertCourse(c) if err != nil { panic(err) } users, err := SelectUser() if err != nil { panic(err) } fmt.Println(users) }
分表:
Sharding 是一个高性能的 Gorm 分表中间件。它基于 Conn 层做 SQL 拦截、AST 解析、分表路由、自增主键填充,带来的额外开销极小。对开发者友好、透明,使用上与普通 SQL、Gorm 查询无差别,只需要额外注意一下分表键条,就能提供高性能的数据库访问。支持一下功能:
1.非侵入式设计,加载插件,指定配置,既可实现分表。
2.轻快, 非基于网络层的中间件,像 Go 一样快
3.支持多种数据库。 PostgreSQL 已通过测试,MySQL 和 SQLite 也在路上。
4.多种主键生成方式支持(Snowflake, PostgreSQL Sequence, 以及自定义支持)Snowflake 支持从主键中确定分表键。
import ( "fmt" "gorm.io/driver/postgres" "gorm.io/gorm" "gorm.io/sharding" ) dsn := "postgres://localhost:5432/sharding-db?sslmode=disable" db, err := gorm.Open(postgres.New(postgres.Config{DSN: dsn})) db.Use(sharding.Register(sharding.Config{ ShardingKey: "user_id", NumberOfShards: 64, PrimaryKeyGenerator: sharding.PKSnowflake, }, "orders").Register(sharding.Config{ ShardingKey: "user_id", NumberOfShards: 256, PrimaryKeyGenerator: sharding.PKSnowflake, // This case for show up give notifications, audit_logs table use same sharding rule. }, Notification{}, AuditLog{})))
go生成分布式主键
package main import ( "fmt" "os" "github.com/bwmarrin/snowflake" ) func main() { n, err := snowflake.NewNode(1) if err != nil { println(err) os.Exit(1) } for i := 0; i < 3; i++ { id := n.Generate() fmt.Println("id", id) fmt.Println( "node: ", id.Node(), "step: ", id.Step(), "time: ", id.Time(), "\n", ) } }
读写分离,简单地说是把对数据库的读和写操作分开,以对应不同的数据库服务器。主数据库提供写操作,从数据库提供读操作,这样能有效地减轻单台数据库的压力。
通过MyCat即可轻易实现上述功能,不仅可以支持MySQL,也可以支持Oracle和SQL Server
环境准备:
负载均衡策略,目前取值有4种,对应balance取值:
双主双从:
一个主机Master1用于处理所有写请求,它的从机slave1和另一台主机Master2还有它的从机Slave2负责所有读请求。当Master1主机宕机后,Master2主机负责写请求,Master1 、Master2互为备机。架构图如下:
环境的搭建:
1.主库修改配置文件 /etc/my.cnf
#mysql服务ID,保证整个集群环境中唯一,取值范围:1-2^32-1,默认为1
server-id=1
#指定同步的数据库
binlog-do-db=db01
binlog-do-db=db02
binlog-do-db=db03
#在作为从数据库的时候,有写入操作也要更新二进制日志文件
log-slave-updates
2.重启MYSQL服务器
systemctl restart mysqld
3.两台主库创建账户并授权
#创建itcast用户,并设置密码,该用户可在任意主机连接该MySQL服务
CREATE USER 'itcast@'%'IDENTIFIED WITH mysql_native_password BY 'Root@123456';
#为'itcast'@'%'用户分配主从复制权限
GRANT REPLICATION SLAVE ON *.* TO 'itcast'@'%";
通过指令,查看两台主库的二进制日志坐标
show master status;
4.从库配置
修改配置文件/etc/ my.cnf
#mysql服务ID,保证整个集群环境中唯一,取值范围:1-232-1,默认为1
server-id=2
重启MYSQL服务器
systemctl restart mysqld
负载均衡算法:
1.轮询算法:ROUND_ROBIN
2.随机访问算法:RANDOM
3.权重访问算法:WEIGHT,使用中的读库都必须配置权重
有包括 TINYINT、SMALLINT、MEDIUMINT、INT、BIGINT,分别表示 1 字节、2 字节、3 字节、4 字节、8 字节的整数类型。
任何整数类型都可以加上UNSIGNED属性,表示无符号整数
任何整数类型都可以指定长度,但它不会限制数据的合法长度,仅仅限制了显示长度
还有包括FLOAT、DOUBLE、DECIMAL在内的小数类型
字符串类型:VARCHAR、CHAR、TEXT、BLOB
Char范围0~255 Varchar最长64k(64k是整个row的长度,还要考虑到其它的column) Text最大到4G
VARCHAR(n)和CHAR(n)中的n并不代表字节个数,而是代表字符的个数
日期和时间类型: DATETIME、DATE 和 TIMESTAMP。
尽量使用 TIMESTAMP,空间效率高于 DATETIME。
Char和Varchar的区别
1.Char是定长的,尾部的空格符会被忽略,Varchar是变长的
2.存储方式上:Char对英文字符(ASCII)占用1个字节,对一个汉字使用2字节。而Varchar对每个字符都使
用2字节
SQL执行:
如何判断 SQL 是否走了索引?
EXPLAIN 命令是查看查询优化器如何决定执行查询的主要方法,使用 EXPLAIN 只需在查询语句开头增加 EXPLAIN 这个关键字即可。
id:ID 代表执行 select 子句或操作表的顺序,如果包含子查询,则会出现多个 ID。值越大,优先级越高,越先被执行。值相同的按照由上至下的顺序执行。
select_type(查询类型):查询类型主要用于区别普通查询、联合查询以及子查询等复杂查询。
type:查询扫描情况,最好到最差依次是:system>const>eq_ref>ref>range>index>All,一般情况下至少保证达到 range 级别,最好能达到 ref。
possible_keys:显示可能应用在这张表中的索引,一个或多个。查询到的索引不一定是真正被使用。
key:实际使用的索引,如果为 null 则表示没有使用索引。因此会出现 possible_keys 列有可能被用到的索引,但是 key 列为 null。
key_len:表示索引中使用的字节数,在不损失精确性的情况下长度越短越好。key_len 显示的值为索引字段的最大可能长度,并非实际使用长度。即 key_len 是根据表定义计算而来。
ref:显示索引的哪一列被使用了,如果可能的话是一个常数,哪些列或常量被用于查找索引列上的值。
rows:根据表统计信息及索引选用情况,估算出找到所需的记录所需要读取的行数。
第一范式(1NF):字段(或属性)是不可分割的最小单元,体现原子性
第二范式(2NF):满足1NF前提下,存在一个候选码,非主属性全部依赖该候选码,即存在主键,提现唯一性,专业术语则是消除部分函数依赖
第三范式(3NF):满足2NF前提下,非主属性必须互不依赖,消除传递依赖
范式优点:
减少了数据冗余,数据表更新操作快、占用存储空间少
缺点:
查询时通常需要多表关联查询,更难进行索引优化
索引的分类:
物理结构上分:
1.聚簇索引:叶子节点存储的是对应的数据行本身
2.非聚簇索引:叶子节点存储的是主键
应用上分:
1.普通索引:MYSQL中的基本索引类型,没有什么限制,允许在定义索引的列中插入重复值和空值,纯
粹为了提高查询效率。通过 ALTER TABLE table_name ADD INDEX index_name (column) 创建;
2.唯一索引:索引列中的值必须是唯一的,但是允许为空值。通过 ALTER TABLE table_name ADD
UNIQUE index_name (column) 创建;
3.主键索引:特殊的唯一索引,也成聚簇索引,不允许有空值,并由数据库帮我们自动创建;
4.组合索引:组合表中多个字段创建的索引,遵守最左前缀匹配规则;
5.全文索引:只有在 MyISAM 引擎上才能使用,同时只支持 CHAR、VARCHAR、TEXT 类型字段上使
用。
索引的优点:
1.通过创建唯一性索引,可以保证数据库表中每一行数据的唯一性
2.可以大大加快数据的检索速度,这也是创建索引的最主要的原因。
3.可以加速表和表之间的连接,特别是在实现数据的参考完整性方面特别有意义。
4.在使用分组和排序子句进行数据检索时,同样可以显著减少查询中分组和排序的时间。
5.通过使用索引,可以在查询的过程中,使用优化隐藏器,提高系统的性能。
索引的缺点:
1.创建和维护索引需要耗费时间,这种时间随着数据量的增加而增加,这样就降低了数据的维护速度
2.索引需要占物理空间,除了数据表占数据空间之外,每一个索引还要占一定的物理空间。如果要建立聚
簇索引,那么需要的空间就会更大
3.会降低表的增删改的效率,因为每次增删改索引需要进行动态维护,导致时间变长
InnoDB索引与MyISAM索引实现的区别是什么?
1.InnoDB索引和数据在一个文件中,MyISAM的索引是存储在另外一个文件中
2.InnoDB辅助索引叶子节点存储的是主键,而MyISAM主键索引和辅助索引叶子节点存储的都是数据
1.选择唯一性索引:唯一性索引的值是唯一的,可以更快速的通过该索引来确定某条记录
2.为常作为查询条件的字段建立索引:如果某个字段经常用来做查询条件,那么该字段的查询速度会影响整个表的查询速度。因此,为这样的字段建立索引,可以提高整个表的查询速度。
3.为经常需要排序、分组和联合操作的字段建立索引:经常需要 ORDER BY、GROUP BY、DISTINCT 和 UNION 等操作的字段,排序操作会浪费很多时间。如果为其建立索引,可以有效地避免排序操作。
4.限制索引的数目
5.小表不建议索引:由于数据较小,查询花费的时间可能比遍历索引的时间还要短,索引可能不会产生优化效果。
索引的数据结构和具体存储引擎的实现有关,Mysql中常用的是Hash和B+树索引
Hash索引底层就是Hash表,进行查询时调用Hash函数获取到相应的键值,然后回表查询获取实际数据
B+树索引底层实现原理是多路平衡查找树,对于每一次的查询都是从根节点出发,查询到叶子节点方可
获得所查键值,最后查询判断是否需要回表查询
Hash和B+树索引的区别
1.Hash进行等值查询更快,但无法进行范围查询,也不支持使用索引进行排序。B+树本质是一颗查找
树,自然支持范围查询和排序
2.Hash不支持模糊查询以及多列索引的最左前缀匹配,因为Hash函数的值不可预测
3.Hash任何时候都避免不了回表查询。B+树在符合某些条件下(聚簇索引、覆盖索引等)时候可以只通
过索引完成查询,不需要回表
4.Hash索引在等值上查询效率高,但性能不稳定,因为当某个键值存在大量重复时,产生 Hash 碰撞,
此时查询效率反而可能降低。B+树查询效率比较稳定,因为每次查询都是从根节点到叶子节点,且为树
的高度。
为什么选择B+树而非B树做索引?
1.B+树减少了IO次数:由于索引文件很大因此索引文件存储在磁盘上,B+ 树的非叶子结点只存关键字不
存数据,因而单个页可以存储更多的关键字,即一次性读入内存的需要查找的关键字也就越多,磁盘的随
机 I/O 读取次数相对就减少了。
2.B+树查询效率更稳定:由于数据只存在在叶子结点上,所以查找效率固定为 O(log n),所以 B+ 树的查
询效率相比B树更加稳定。
3.B+树更适合范围查找:B+ 树叶子结点之间用链表有序连接,所以扫描全部数据只需扫描一遍叶子结
点,利于扫库和范围查询;B 树由于非叶子结点也存数据,所以只能通过中序遍历按序来扫。也就是说,
对于范围查询和有序遍历而言,B+ 树的效率更高。
什么是覆盖索引?
在 B+ 树的索引中,叶子节点可能存储了当前的键值,也可能存储了当前的键值以及整行的数据,这就是聚簇索引和非聚簇索引。 在 InnoDB 中,只有主键索引是聚簇索引,如果没有主键,则挑选一个唯一键建立聚簇索引。如果没有唯一键,则隐式的生成一个键来建立聚簇索引。
当查询使用聚簇索引时,在对应的叶子节点,可以获取到整行数据,因此不用再次进行回表查询。
什么是索引下推?
索引下推(Index Condition Pushdown,简称ICP),是MySQL5.6版本的新特性,它能减少回表查询次数,提高查询效率。
索引下推的下推其实就是指将部分上层(服务层)负责的事情,交给了下层(引擎层)去处理。
在没有使用ICP的情况下,MySQL的查询:
1.存储引擎读取索引记录;
2.根据索引中的主键值,定位并读取完整的行记录;
3.存储引擎把记录交给Server层去检测该记录是否满足WHERE条件。
使用ICP的情况下,查询过程:
存储引擎读取索引记录(不是完整的行记录);
判断WHERE条件部分能否用索引中的列来做检查,条件不满足,则处理下一行索引记录;
条件满足,使用索引中的主键去定位并读取完整的行记录(就是所谓的回表);
存储引擎把记录交给Server层,Server层检测该记录是否满足WHERE条件的其余部分。
具体实例:
如果现在有一个需求:检索出表中名字第一个字是张,而且年龄是10岁的所有用户。
根据最左匹配原则,那么就知道这个语句在搜索索引树的时候,只能用 张,找到的第一个满足条件的记录id为1。
在没有使用ICP之前:存储引擎根据通过联合索引找到name like ‘张%’ 的主键id(1、4),逐一进行回表扫描,去聚簇索引找到完整的行记录,server层再对数据根据age=10进行筛选。
使用ICP之后:存储引擎根据(name,age)联合索引,找到name like ‘张%’,由于联合索引中包含age列,所以存储引擎直接再联合索引里按照age=10过滤。按照过滤后的数据再一一进行回表扫描。
1)like 以%开头,索引无效;当like前缀没有%,后缀有%时,索引有效;
2)or 语句前后没有同时使用索引。当 or 左右查询字段只有一个是索引,该索引失效,只有左右查询字段均为索引时,才会生效;
3)联合索引不使用第一列,索引失效;
4)数据类型出现隐式转化。如 varchar 不加单引号的话可能会自动转换为 int 型,使索引无效,产生全表扫描;
5)在索引列上使用 IS NULL 或 IS NOT NULL操作。最好给列设置默认值。
6)在索引字段上使用not,<>,!=。不等于操作符是永远不会用到索引的,因此对它的处理只会产生全表扫描。 优化方法: key<>0改为key>0 or key<0。
7)对索引字段进行计算操作、字段上使用函数。
8)当 MySQL 觉得全表扫描更快时(数据少);
select * from t_table where a > 1 and b = 2
由于在符合a>1条件的二级索引记录的范围里,b字段的值是无序的。所以查询语句只有a字段用到了联合索引进行索引查询,而b字段并没有使用联合索引。
select * from t_table where a >= 1 and b = 2
虽然在符合 a>= 1 条件的二级索引记录的范围里,b 字段的值是「无序」的,但是对于符合 a = 1 的二级索引记录的范围里,b 字段的值是「有序」的。在确定需要扫描的二级索引的范围时,当二级索引记录的 a 字段值为 1 时,可以通过 b = 2 条件减少需要扫描的二级索引记录范围。 这条查询语句 a 和 b 字段都用到了联合索引进行索引查询。
SELECT * FROM t_table WHERE a BETWEEN 2 AND 8 AND b = 2
由于 MySQL 的 BETWEEN 包含 value1 和 value2 边界值,所以类似于 Q2 查询语句,因此 Q3 这条查询语句 a 和 b 字段都用到了联合索引进行索引查询。
SELECT * FROM t_user WHERE name like 'j%' and age = 22
虽然在符合前缀为 ‘j’ 的 name 字段的二级索引记录的范围里,age 字段的值是「无序」的,但是对于符合 name = j 的二级索引记录的范围里,age字段的值是「有序」的,在确定需要扫描的二级索引的范围时,当二级索引记录的 name 字段值为 ‘j’ 时,可以通过 age = 22 条件减少需要扫描的二级索引记录范围。这条查询语句 a 和 b 字段都用到了联合索引进行索引查询。
1.联合索引最左前缀原则
2.不能使用索引中范围条件右边的列(范围列可以用到索引),范围列之后列的索引全失效
3.不要在索引列上面做任何操作(计算、函数),否则会导致索引失效而转向全表扫描
4.更新十分频繁、数据区分度不高的列不宜建立索引
5.强制类型转换会全表扫描
6.索引不会包含有NULL值的列
7.如果有order by、group by的场景,请注意利用索引的有序性。order by 最后的字段是组合索引的一部分,并且放在索引组合顺序的最后,避免出现file_sort 的情况,影响查询性能。例如对于语句 where a=? and b=? order by c,可以建立联合索引(a,b,c)。如果索引中有范围查找,那么索引有序性无法利用,如WHERE a>10 ORDER BY b;,索引(a,b)无法排序。
8.如果明确知道只有一条结果返回,limit 1 能够提高效率
9.单表索引建议控制在5个以内
1.前缀索引优化:使用某个字段中字符串的前几个字符建立索引
2.覆盖索引优化
3.索引最好是自增的:减少页分裂和页合并
4.索引最好是NOT NULL:索引列如果存在NULL就会导致优化器在做索引选择时候更加复杂,更难以优化,因为可为 NULL 的列会使索引、索引统计和值比较都更复杂,比如进行索引统计时,count 会省略值为NULL 的行。
5.防止索引失效
MyISAM 和 InnoDB 的区别?
1)InnoDB 支持事务,而 MyISAM 不支持。
2)InnoDB 支持外键,而 MyISAM 不支持。因此将一个含有外键的 InnoDB 表 转为 MyISAM 表会失败。
3)InnoDB 和 MyISAM 均支持 B+ Tree 数据结构的索引。但 InnoDB 是聚集索引,而 MyISAM 是非聚集
索引。
4)InnoDB 不保存表中数据行数,执行 select count(*) from table 时需要全表扫描。而 MyISAM 用一个
变量记录了整个表的行数,速度相当快(注意不能有 WHERE 子句)。那为什么 InnoDB 没有使用这样
的变量呢?因为InnoDB的事务特性,在同一时刻表中的行数对于不同的事务而言是不一样的。
5)InnoDB 支持表、行(默认)级锁,而 MyISAM 支持表级锁。
InnoDB 的行锁是基于索引实现的,而不是物理行记录上。即访问如果没有命中索引,则也无法使用行
锁,将要退化为表锁。
6)InnoDB 必须有唯一索引(如主键),如果没有指定,就会自动寻找或生产一个隐藏列 Row_id 来充
当默认主键,而 Myisam 可以没有主键。
InnoDB 为何推荐使用自增主键?
自增 ID 可以保证每次插入时 B+ 树索引是从右边扩展的,因此相比自定义 ID (如 UUID)可以避免 B+ 树的频繁合并和分裂。如果使用字符串主键和随机主键,会使得数据随机插入,效率比较差。
什么是InnoDB的页、区、段?
页:首先,InnoDB 将物理磁盘划分为页(page),每页的大小默认为 16 KB,页是最小的存储单位。页
根据上层应用的需要,如索引、日志等,分为很多的格式。我们主要说数据页,也就是存储实际数据的
页。页是磁盘和内存之间交互的基本单位。
区:如果只有页这一个层次的话,页的个数是非常多的,存储空间的分配和回收都会很麻烦,因为要维护
这么多的页的状态是非常麻烦的。所以,InnoDB 又引入了区(Extent) 的概念。一个区默认是 64 个连续
的页组成的,也就是 1MB。通过Extent 对存储空间的分配和回收就比较容易了。
段:为什么要引入段呢,这要从索引说起。我们都知道索引的目的是为了加快查找速度,是一种典型的用
空间换时间的方法。B+ 树的叶子节点存放的是我们的具体数据,非叶子结点是索引页。所以 B+ 树将数
据分为了两部分,叶子节点部分和非叶子节点部分,也就我们要介绍的段 Segment,也就是说 InnoBD
中每一个索引都会创建两个 Segment 来存放对应的两部分数据。
Segment 是一种逻辑上的组织,其层次结构从上到下一次为 Segment、Extent、Page。
页由哪些数据组成?
File Header:
用于描述数据页的外部信息,比如属于哪一个表空间、前后页的页号等
Page Header:
用来描述数据页中的具体信息,比如存在多少条记录,第一条记录的位置等
infimum和supremum纪录
infimum 和 supremum 是系统生成的纪录,分别为最小和最大纪录值,infimum 的下一条是用户纪录中键值最小的纪录,supremum 的上一条是用户纪录中键值最大的纪录,通过 next_record 字段来相连。
User Records
用户纪录,也就是数据库表中对应的数据,这里我们说常用的 Compact 格式。
Free Space
页中目前空闲的存储,可以插入纪录。
Page Dictionary
类似于字典的目录结构,根据主键大小,每隔 4-8 个纪录设置一个槽,用来纪录其位置,当根据主键查找数据时,首先一步到位找到数据所在的槽,然后在槽中线性搜素。这种方法比从前到后遍历页的链表的效率更快。
Page Tailer
File Header存储刷盘前内存的校验和,Page Tailer储存刷盘后的校验和。当刷盘的时候,出现异常,Page Tailer和File Header中的校验和不一致,则说明出现刷盘错误。
页中插入记录的过程?
1)如果 Free Space 的空间足够的话,直接分配空间来添加纪录,并将插入前最后一条纪录的
next_record 指向当前插入的纪录,将当前插入纪录的 next_record 指向 supremum 纪录。
2)如果 Free Space的 空间不够的话,则首先将之前删除造成的碎片重新整理之后,按照上述步骤插入
纪录。
3)如果当前页空间整理碎片之后仍然不足的话,则重新申请一个页,将页初始化之后,按照上述步骤插
入纪录
什么是Buffer Pool?
Buffer Pool是InnoDB存储引擎层的缓冲池,内存以页为单位缓存磁盘数据,减少磁盘IO,提升访问速
度。缓冲池大小默认128M,主要存储数据页、索引页更新缓冲等。
varchar大于某些数值是会自动转换为text,大概规则如下:
1.大于varchar(255)变成tinytext
2.大于varchar(500)变成text
3.大于varchar(20000)变成mediumtext
varchar和text的区别:
1.使用varchar可以选择大小,并为存储设置上限;使用text则不能设置上限,固定长度65535(16k)
2.使用varchar可以设置默认值,text不可以设置默认值
3.使用varchar可以进行排序查询,text不可以排序查询
4.使用varchar超过255长度都会隐式的转为text处理
5.涉及text列的查询可能会导致在磁盘而不是内存中创建临时表。使用基于磁盘的表会显着降低性能,这意味着使用
text的查询可能会慢很多
6.使用text字段时需要将text字段单独放到一个表中
预读机制
Buffer Pool有一项特技叫做预读,存储引擎的接口在被Server调用时,会在响应的同时进行预判,将下次
可能用到的数据和索引加载到Buffer Pool。
预读策略有两种,为线性预读(linear read-ahead)和随机预读(random read-ahead),其中 InnoDB
默认使用线性预读,随机预读已经基本废弃。
线性预读认为如果前面的请求顺序访问当前区(extent)的页,那么接下来的若干请求也会顺序访问下一
个区的页,并将下一个区加载到 Buffer Pool。在 5.4 版本以后默认开启,默认值为 56,最大不能超过
64,表示顺序访问 N 个页后触发预读(一个页16K,一个区1M,一个区最多64个页,所以最大值64)。
换页算法
与传统的 LRU 算法不同,因为面临两个问题:
1.预读失效::由于提前把页放入了缓冲池,但最终 MySQL 并没有从页中读取数据。
要优化预读失效,则让预读失败的页停留在缓冲池里的时间尽可能短,预读成功的页停留时间尽可能长。
具体将 LRU 链分代实现,即新生代和老年代(old subList),预读的页加入缓冲池时只加入到老年代头
部,只有真正被预读成功,则再加入新生代。
2.缓冲池污染:当批量扫描大量数据时,可能导致把缓冲池的所有页都替换出去,导致大量热数据被换
出,MySQL 性能急剧下降。
InnoDB 缓冲池加入了一个老生代停留时间窗口的机制,只有满足预读成功并且在老生代停留时间大于该
窗口才会被放入新生代头部。
什么是Change Buffer?
如果每次写操作,数据库都直接更新磁盘中的数据,会很占磁盘IO。为了减少磁盘IO,InnoDB在Buffer
Pool中开辟了一块内存,用来存储变更记录,为了防止异常宕机丢失缓存,当事务提交时会将变更记录持
久化到磁盘(redo log),等待时机更新磁盘的数据文件(刷脏),用来缓存写操作的内存,就是
Change Buffer
Change Buffer默认占Buffer Pool的25%,最大设置占用50%。
内存中的数据区域划分:
什么是数据库的事务?
数据库的事务是一个不可分割的数据库操作序列,也是数据库并发控制的基本单位,其执行的结果必须使
数据库从一种一致性状态变到另一种一致性状态。事务是逻辑上的一组操作,要么都执行,要么都不执
行。
事务的四大特性
原子性: 事务是最小的执行单位,不允许分割。事务的原子性确保动作要么全部完成,要么完全不起作
用
一致性: 事务执行前后,数据保持一致,多个事务对同一个数据读取的结果是相同的
隔离性: 并发访问数据库时,一个用户的事务不被其他事务所干扰,各并发事务之间数据库是独立的
持久性: 一个事务被提交之后。它对数据库中数据的改变是持久的,即使数据库发生故障也不应该对其
有任何影响。
原子性:事务的原子性就是通过undo log日志进行实现的。当事务需要进行回滚时,InnoDB引擎就会调用undo log日志进行SQL语句的撤销,实现数据的回滚。
一致性:ACID里的AID都是数据库的特征,也就是依赖数据库的具体实现。而唯独这个C,实际上它依赖于应用层,也就是依赖于开发者。
隔离性:事务之间的隔离,是通过锁机制实现的。
持久性:事务的持久性是通过InnoDB存储引擎中的redo log日志来实现的。
事务并发问题
脏读:一个事务读取到另一个事务尚未提交的数据。 事务 A 读取事务 B 更新的数据,然
后 B 回滚操作,那么 A 读取到的数据是脏数据。
不可重复读:一个事务中两次读取的数据的内容不一致。 事务 A 多次读取同一数据,事
务 B 在事务 A 多次读取的过程中,对数据作了更新并提交,导致事务 A 多次读取同一数
据时,结果不一致。
幻读:一个事务中两次读取的数据量不一致。 系统管理员 A 将数据库中所有学生的成绩从具体分数改为
ABCDE 等级,但是系统管理员 B 就在这个时候插入了一条具体分数的记录,当系统管理员 A 改结束后
发现还有一条记录没有改过来,就好像发生了幻觉一样,这就叫幻读。
事务的隔离级别?
1.Read uncommitted(读未提交):如果一个事务已经开始写数据,则另外一个事务不允许同时进行写 操作,但允许其他事务读此行数据,该隔离级别可以通过“排他写锁”,但是不排斥读线程实现。这样就避 免了更新丢失,却可能出现脏读,也就是说事务B读取到了事务A未提交的数据 2.Read committed(读提交):如果是一个读事务(线程),则允许其他事务读写,如果是写事务将会禁止其 他事务访问该行数据,该隔离级别避免了脏读,但是可能出现不可重复读。事务A事先读取了数据,事务 B紧接着更新了数据,并提交了事务,而事务A再次读取该数据时,数据已经发生了改变。 3.Repeatable read(可重复读取):可重复读取是指在一个事务内,多次读同一个数据,在这个事务还没结 束时,其他事务不能修改。读取数据的事务将会禁止写事务(但允许读事务),写事务则禁止任何其他事务 (包括了读写),这样避免了不可重复读和脏读,但是有时可能会出现幻读。(读取数据的事务)可以通过“共 享读镜”和“排他写锁”实现。 4.Serializable(可序化):提供严格的事务隔离,它要求事务序列化执行,事务只能一个接着一个地执行, 但不能并发执行,如果仅仅通过“行级锁”是无法实现序列化的,必须通过其他机制保证新插入的数据不会 被执行查询操作的事务访问到。序列化是最高的事务隔离级别,同时代价也是最高的,性能很低,一般很 少使用,在该级别下,事务顺序执行,不仅可以避免脏读、不可重复读,还避免了幻读。
事务的ACID实现原理
InnoDB存储引擎还提供了两种事务日志:redo log(重做日志)和undo log(回滚日志)。其中,redo log用于 保证事务持久性;undo log则是事务原子性和隔离性实现的基础。 实现原子性的关键,是当事务回滚时能够撤销所有已经成功执行的sql语句。InnoDB实现回滚,靠的是 undo log:当事务对数据库进行修改时,InnoDB会生成对应的undo log;如果事务执行失败或调用了 rollback,导致事务需要回滚,便可以利用undo log中的信息将数据回滚到修改之前的样子。 Buffer Pool的使用大大提高了读写数据的效率,但是也带了新的问题:如果MySQL宕机,而此时Buffer Pool中修改的数据还没有刷新到磁盘,就会导致数据的丢失,事务的持久性无法保证。于是,redo log被 引入来解决这个问题:当数据修改时,除了修改Buffer Pool中的数据,还会在redo log记录这次操作;当 事务提交时,会调用fsync接口对redo log进行刷盘。如果MySQL宕机,重启时可以读取redo log中的数 据,对数据库进行恢复。redo log采用的是WAL(Write-ahead logging,预写式日志),所有修改先写入 日志,再更新到Buffer Pool,保证了数据不会因MySQL宕机而丢失,从而满足了持久性要求。 既然redo log也需要在事务提交时将日志写入磁盘,为什么它比直接将Buffer Pool中修改的数据写入磁盘 (即刷脏)要快呢?主要有以下两方面的原因:
(1)刷脏是随机IO,因为每次修改的数据位置随机,但写redo log是追加操作,属于顺序
IO。
(2)刷脏是以数据页(Page)为单位的,MySQL默认页大小是16KB,一个Page上一个小
修改都要整页写入;而redo log中只包含真正需要写入的部分,无效IO大大减少。
锁的分类:
按照锁的粒度分,可以将锁分为表锁、行锁以及页锁
1.行级锁:是锁定粒度最细的一种锁,表示只针对当前操作的行进行加锁。行级锁能大大减少数据库操作
的冲突。其加锁粒度最小,但加锁的开销也最大。当查询时主键明确采用行锁。
2.表级锁:是粒度最大的一种锁,表示对当前操作的整张表加锁,它实现简单,资源消耗较少,被大部分
MySQL引擎支持。当查询时主键不明确采用表锁。
3.页级锁:是粒度介于行级锁和表级锁中间的一种锁。表级锁速度快,但冲突多,行级冲突少,但速度
慢。所以取了折中的页级,一次锁定相邻的一组记录。
从使用性质划分,可以分为共享锁、排它锁以及更新锁。
1.共享锁(Share Lock):S锁,又称读锁,用于所有的只读数据操作。S 锁并非独占,允许多个并发事
务对同一资源加锁,S 锁的同时不允许加 X 锁
2.排他锁(Exclusive Lock):X锁,又称写锁,表示对数据进行写操作。X 锁仅允许一个事务对同一资
源加锁,且直到事务结束才释放,其他任何事务必须等到 X 锁被释放才能对该页进行访问。
3.更新锁:U锁,用来预定要对资源施加X锁,允许其他事务读,但不允许再施加U锁或X锁。当被读取的
页将要被更新时,则升级为 X 锁,U 锁一直到事务结束时才能被释放。
从主观上划分,又可以分为乐观锁和悲观锁。
1.乐观锁(Optimistic Lock):顾名思义,从主观上认定资源是不会被修改的,所以不加锁读取数据,仅
当更新时用版本号机制等确认资源是否被修改。
2.悲观锁(Pessimistic Lock):正如其名,具有强烈的独占和排它特性,每次读取数据时都会认为会被
其它事务修改,所以每次操作都需要加上锁。
隔离级别和锁的关系
1)在 Read Uncommitted 级别下,读取数据不需要加共享锁,写添加互斥锁,这样就不会跟被修改的数
据上的排他锁冲突;
2)在 Read Committed 级别下,MVCC实现;在该隔离级别下,事务的读操作不申请共享锁,但是读取
的数据是最新的一份快照数据,写操作申请排它锁,并在事务结束后释放,导致在一个事务中读取相同的
数据可能得到不一样的结果(不可重复读)。
3)在 Repeatable Read 级别下,MVCC实现。InnoDB默认采取该隔离级别,在该隔离级别下,事务的
读操作不申请共享锁,但是读取的数据是事务开始时的快照数据(这里可以和READ COMMITTED对比
来看),写操作申请排它锁,并在事务结束后释放,该隔离级别解决了不可重复读的问题,但是没有解决
幻读的问题。
4)在 SERIALIZABLE 级别下,限制性最强,读的时候加共享锁,也就是其他事务可以并发读,但是不
能写。写的时候加排它锁,其他事务不能并发写也不能并发读。因为该级别锁定整个范围的键,并一直持
有锁,直到事务完成。
InnoDB 中的锁算法
Record lock:单个行记录上的锁
Gap lock:间隙锁,锁定一个范围,不包括记录本身
Next-key lock:record + gap 锁定一个范围,包含记录本身
什么是快照读和当前读?
快照读就是读取的是快照数据,不加锁的简单 Select 都属于快照读。
当前读就是读的是最新数据,而不是历史的数据。加锁的 SELECT,或者对数据进行增删改都会进行当
前读。
意向锁
为了解决用表锁的时候,如果表里面已经加了行锁,避免一条记录一条记录遍历过去找行锁。有了意向锁
IS(Intention Shared Lock),共享意向锁
IX(Intention Exclusive Lock),独占意向锁。
这两个锁是表级别的锁,当需要对表中的某条记录上 S 锁的时候,先在表上加个 IS 锁,表明此时表内有 S 锁。当需要对表中的某条记录上 X 锁的时候,先在表上加个 IX 锁,表明此时表内有 X 锁。
这样操作之后,如果要加表锁,就不需要遍历所有记录去找了,直接看看表上面有没有 IS 和 IX 锁。
比如,此时要上表级别的 S 锁,如果表上没有 IX ,说明表中没有记录有独占锁,其实就可以直接上表级 S 锁。
因此 IS 和 IX 的作用就是在上表级锁的时候,可以快速判断是否可以上锁,而不需要遍历表中的所有记录。
InnoDB有哪几类行锁?
记录锁(Record Locks)、间隙锁(Gap Locks)、Next-Key Locks。
记录锁顾名思义就是锁住当前的记录,它是作用到索引上的。我们都知道 innodb 是肯定有索引的,即使没有主键也会创建隐藏的聚簇索引,所以记录锁总是锁定索引记录。
比如,此时一个事务 A 执行 SELECT * FROM yes WHERE name = ‘xx’ FOR UPDATE; 那么 name = xx 这条记录就被锁定了,其他事务无法插入、删除、修改 name = xx 的记录。
间隙锁:记录锁需要加到记录上,但是如果要给此时还未存在的记录加锁怎么办?也就是要预防幻读的出现!这时候间隙锁就派上用场了,它是给间隙加上锁。
Next-Key Locks 就是记录锁+间隙锁
Multi-Version Concurrency Control,多版本并发控制,其实指的是一条记录会有多个版本,每次修改记录都会存储这条记录被修改之前的版本,多版本之间串联起来就形成了一条版本链。这样不同时刻启动的事务可以无锁地获得不同版本的数据(普通读)。此时读(普通读)写操作不会阻塞,写操作可以继续写,无非就是多加了一个版本,历史版本记录可供已经启动的事务读取。就是一种多并发版本控制器、通俗点就是一种并发控制的方法,一般用于数据库中对数据库的并发访问。Mysql中的innoDB中就是使用这种方法来提高读写事务控制的、他大大提高了读写事务的并发性能,原因是MVCC是一种不采用锁来控制事物的方式,是一种非堵塞、同时还可以解决脏读,幻读,不可重复读等事务隔离问题,但不能解决更新丢失问题。
mvcc的实现原理主要依赖于记录中的三个隐藏字段,undo log,read view来实现
1.重做日志(redo log):物理日志
只记录事务对数据页做了哪些修改,作用是确保事务的持久性。 redo 日志记录事务执行后的状态,用来恢复未写入 data file 的已提交事务数据。
2.回滚日志(undo log):逻辑日志
作用是保证数据的原子性。 保存了事务发生之前的数据的一个版本,可以用于回滚,同时可以提供多版本并发控制下的读(MVCC),也即非锁定读。
3.二进制日志(binlog):逻辑日志
binlog用于记录数据库执行的写入性操作(不包括查询)信息,以二进制的形式保存在磁盘中。常用于主从同步或数据同步中,也可用于数据库基于时间点的还原。
4.错误日志(errorlog)
记录着 MySQL 启动和停止,以及服务器在运行过程中发生的错误的相关信息。在默认情况下,系统记录错误日志的功能是关闭的,错误信息被输出到标准错误输出。
5.普通查询日志(general query log)
记录了服务器接收到的每一个命令,无论命令语句是否正确,因此会带来不小开销,所以也是默认关闭的。
6.慢查询日志(slow query log)
记录执行时间过长和没有使用索引的查询语句(默认 10s),同时只会记录执行成功的语句。
7.中继日志(relay log)
在从节点中存储接收到的 binlog 日志内容,用于主从同步。
redo log刷盘时机?
每次对于数据的修改,会记录到重做日志缓存(redo log buffer)里,接着刷盘到redo log文件里。
InnoDB存储引擎为redo log的刷盘策略提供了innodb_flush_log_at_trx_commit 参数,它支持三种策略:
0:表示每次事务提交时不进行刷盘操作
1:表示每次事务提交时都将进行刷盘操作(默认)
2:每次事务提交时都只把redo log buffer内容写入page cache
另外,InnoDB 存储引擎有一个后台线程,每隔1 秒,就会把 redo log buffer 中的内容写到文件系统缓存(page cache),然后调用 fsync 刷盘。
binlog的刷盘时机?
binlog的写入时机为事务执行过程中,先把日志写到binlog cache,事务提交的时候再把binlog cache写到binlog文件中(实际先会写入page cache,然后再由fsync写入到binlog文件中)。
写入page cache的时机以及落盘的时机都是由参数sync_binlog控制,可以配置成0、1、N(N>1)
设置成0时:表示每次提交事务只会写入page cache,由操作系统自行判断什么时候执行fsync
设置成1时:表示每次提交事务都会执行刷盘
设置成N时:表示提交事务都会写入page cache,但是累计N个事务才fsync
undolog刷盘时机?
所有事务进行的修改都会先被记录到undolog中,然后再执行其它相关的操作。回滚日志会先于数据持久化到磁盘上。这样就保证了即使遇到数据库突然宕机等情况,当用户再次启动数据库的时候,数据库还能够通过查询回滚日志来回滚将之前未完成的事务。
实现原理:
数据库有个 binlog 二进制文件,记录了数据可执行的所有 SQL 语句。主从同步的目标就是把主数据库的 binlog 文件中的 SQL 语句复制到从数据库,让其在从数据的 relaylog 文件中再执行一次这些 SQL 语句即可。
具体实现需要三个线程:
1.binlog 输出线程:每当有从库连接到主库的时候,主库都会创建一个线程然后发送 binlog内容到从库。
再从库里,当复制开始的时候,从库就会创建两个线程进行处理:
2.从库 IO 线程:当 START SLAVE 语句在从库开始执行之后,从库创建一个 IO 线程,该线程连接到主
库并请求主库发送 binlog 里面的更新记录到从库上。从库 IO 线程读取主库的 binlog 输出线程发送的更
新并拷贝这些更新到本地文件,其中包括 relaylog 文件。
3.从库 SQL 线程:从库创建一个 SQL 线程,这个线程读取从库 IO 线程写到 relaylog 的更新事件并执
行。
mysql的主从复制主要有三种模型:
1.同步复制:MySQL 主库提交事务的线程要等待所有从库的复制成功响应,才返回客户端结果。
2.异步复制:(默认模型):MySQL 主库提交事务的线程并不会等待 binlog 同步到各从库,就返回客户端结果。
3.半同步复制:MySQL 5.7 版本之后增加的一种复制方式,介于两者之间,事务线程不用等待所有的从库复制成功响
应,只要一部分复制成功响应回来就行,比如一主二从的集群,只要数据成功复制到任意一个从库上,主库的事务线
程就可以返回给客户端。
字段:尽量使用TINYINT、SMALLINT、MEDIUM_INT、TIMESTAMP、避免使用NULL
索引:可根据EXPLAIN来查看是否用了索引还是全表扫描,尽量避免在WHERE子句中对字段进行NULL值判断,否则将导致引擎放弃使用索引而进行全表扫描
查询SQL:可通过开启慢查询日志来找出较慢的SQL、不做列运算、不用SELECT *
MySQL提供explain/desc命令输出执行计划,如explain select * from user;
explain中的列:
id:表示一个查询中各个子查询的执行顺序;id为null时表示一个结果集,不需要使用它查询,常出现在包
含union等查询语句中。
select_type:每个子查询的查询类型,一些常见的查询类型。
table:查询的数据表,当从衍生表中查数据时会显示<derivedx> x 表示对应的执行计划id。 partitions:表分区、表创建的时候可以指定通过那个列进行表分区。 type:访问类型 ALL 扫描全表数据 index 遍历索引 range 索引范围查找 index_subquery 在子查询中使用 ref unique_subquery 在子查询中使用 eq_ref ref_or_null 对Null进行索引的优化的 ref fulltext 使用全文索引 ref 使用非唯一索引查找数据 eq_ref 在join查询中使用PRIMARY KEYorUNIQUE NOT NULL索引关联。 possible_keys:可能使用的索引,注意不一定会使用。 key:显示MySQL在查询中实际使用的索引,若没有使用索引,显示为NULL。 key_length:索引长度 char()、varchar()索引长度的计算公式: ref:表示上述表的连接匹配条件,即哪些列或常量被用于查找索引列上的值 rows:表示上述表的连接匹配条件,即哪些列或常量被用于查找索引列上的值 extra:extra的信息非常丰富,常见的有: 1.Using index 使用覆盖索引 2.Using where 使用了用where子句来过滤结果集 3.Using filesort 使用文件排序,使用非索引列进行排序时出现,非常消耗性能,尽量优化。 4.Using temporary 使用了临时表
分区表是一个独立的逻辑表,但是底层由多个物理子表组成。通俗地讲表分区是将一大表,根据条件分割成若干个小表,分区对于应用是透明的,只是数据库对于数据的重新整理。
当查询条件的数据分布在某一个分区的时候,查询引擎只会去某一个分区查询,而不是遍历整个表。在管理层面,如果需要删除某一个分区的数据,只需要删除对应的分区即可。
分区表类型:
按照范围分区
CREATE TABLE test_range_partition( id INT auto_increment, createdate DATETIME, primary key (id,createdate) ) PARTITION BY RANGE (TO_DAYS(createdate) ) ( PARTITION p201801 VALUES LESS THAN ( TO_DAYS('20180201') ), PARTITION p201802 VALUES LESS THAN ( TO_DAYS('20180301') ), PARTITION p201803 VALUES LESS THAN ( TO_DAYS('20180401') ), PARTITION p201804 VALUES LESS THAN ( TO_DAYS('20180501') ), PARTITION p201805 VALUES LESS THAN ( TO_DAYS('20180601') ), PARTITION p201806 VALUES LESS THAN ( TO_DAYS('20180701') ), PARTITION p201807 VALUES LESS THAN ( TO_DAYS('20180801') ), PARTITION p201808 VALUES LESS THAN ( TO_DAYS('20180901') ), PARTITION p201809 VALUES LESS THAN ( TO_DAYS('20181001') ), PARTITION p201810 VALUES LESS THAN ( TO_DAYS('20181101') ), PARTITION p201811 VALUES LESS THAN ( TO_DAYS('20181201') ), PARTITION p201812 VALUES LESS THAN ( TO_DAYS('20190101') ) );
在/var/lib/mysql/data/可以找到对应的数据文件,每个分区表都有一个使用#分隔命名的表文件:
list分区:
对于List分区,分区字段必须是已知的,如果插入的字段不在分区时枚举值中,将无法插入。
create table test_list_partiotion
(
id int auto_increment,
data_type tinyint,
primary key(id,data_type)
)partition by list(data_type)
(
partition p0 values in (0,1,2,3,4,5,6),
partition p1 values in (7,8,9,10,11,12),
partition p2 values in (13,14,15,16,17)
);
hash分区:
可以将数据均匀地分布到预先定义的分区中。
create table test_hash_partiotion
(
id int auto_increment,
create_date datetime,
primary key(id,create_date)
)partition by hash(year(create_date)) partitions 10;
分区的问题:
1.打开和锁住所有底层表的成本可能很高。当查询访问分区表时,MySQL 需要打开并锁住所有的底层
表,这个操作在分区过滤之前发生,所以无法通过分区过滤来降低此开销,会影响到查询速度。可以通过
批量操作来降低此类开销,比如批量插入、LOAD DATA INFILE和一次删除多行数据。
2.维护分区的成本可能很高。例如重组分区,会先创建一个临时分区,然后将数据复制到其中,最后再删
除原分区。
3.所有分区必须使用相同的存储引擎。
查询语句的执行流程如下:权限校验、查询缓存、分析器、优化器、权限校验、执行器、引擎。
1.连接器:建立连接,管理连接、校验用户身份;
2.查询缓存:查询语句如果命中查询缓存则直接返回,否则继续往下执行。MySQL 8.0 已删除该模块;
3.解析 SQL,通过解析器对 SQL 查询语句进行词法分析、语法分析,然后构建语法树,方便后续模块读取表名、字
段、语句类型;
4.执行 SQL:执行 SQL 共有三个阶段:
预处理阶段:检查表或字段是否存在;将 select * 中的 * 符号扩展为表上的所有列。
优化阶段:基于查询成本的考虑, 选择查询成本最小的执行计划;
执行阶段:根据执行计划执行 SQL 查询语句,从存储引擎读取记录,返回给客户端;
预处理器的功能:检查 SQL 查询语句中的表或者字段是否存在、将 select * 中的*符号,扩展为表上的所有列;
优化器的功能:优化器主要负责将 SQL 查询语句的执行方案确定下来,比如在表里面有多个索引的时候,优化器会基于查询成本的考虑,来决定选择使用哪个索引。
执行器:经历完优化器后,就确定了执行方案,接下来 MySQL 就真正开始执行语句了,这个工作是由「执行器」完成的。在执行的过程中,执行器就会和存储引擎交互了,交互是以记录为单位的。
三种执行过程:主键索引查询、全表扫描、索引下推
更新语句执行流程如下:分析器、权限校验、执行器、引擎、redo log(prepare状态)、binlog、redo log(commit状态)
1.先查询到 id 为1的记录,有缓存会使用缓存。
2.拿到查询结果,将 name 更新为大彬,然后调用引擎接口,写入更新数据,innodb 引擎将数据保存在
内存中,同时记录redo log,此时redo log进入 prepare状态。
3.执行器收到通知后记录binlog,然后调用引擎接口,提交redo log为commit状态。
4.更新完成
为什么记录完redo log,不直接提交,而是先进入prepare状态?
假设先写redo log直接提交,然后写binlog,写完redo log后,机器挂了,binlog日志没有被写入,那么机器重启后,这台机器会通过redo log恢复数据,但是这个时候binlog并没有记录该数据,后续进行机器备份的时候,就会丢失这一条数据,同时主从同步也会丢失这一条数据。
in先查子表,再查外表,exist相反
exists用于对外表记录做筛选。exists会遍历外表,将外查询表的每一行,代入内查询进行判断。当exists里的条件语句能够返回记录行时,条件就为真,返回外表当前记录。反之如果exists里的条件语句不能返回记录行,条件为假,则外表当前记录被丢弃。
in是先把后边的语句查出来放到临时表中,然后遍历临时表,将临时表的每一行,代入外查询去查找。
子查询的表比较大的时候,使用exists可以有效减少总的循环次数来提升速度;当外查询的表比较大的时候,使用in可以有效减少对外查询表循环遍历来提升速度。
相同点:
1.truncate和不带where子句的delete、以及drop都会删除表内的数据。
2.drop、truncate都是DDL语句(数据定义语言),执行后会自动提交。
不同点:
1.truncate 和 delete 只删除数据不删除表的结构;drop 语句将删除表的结构被依赖的约束、触发器、索
引;
2.一般来说,执行速度: drop > truncate > delete。
如果该表只有一个主键索引,没有任何二级索引的情况下,select count(1)和select count()都是通过主键索引来统计行数的。如果该表有二级索引,则COUNT(1)和COUNT()都会通过占用空间最小的字段的二级索引进行统计。但是COUNT(字段)需要进行字段的非NULL判断,所以效率会低一些。
性能上:count(*)>=count(1)>count(id)
1.实体完整性:主键约束、唯一约束
2.域完整性:数据库表的字段,必须符合某种特定的数据类型或约束。类型约束、非空约束、默认约束
3.参照完整性:外键约束
4.用户定义完整性:用户检查约束
MYSQL的UPDATE语句用于更新数据库表中的数据。其执行过程如下:
1.解析语句:MYSQL服务器首先会解析UPDATE语句,确认被更新的表名、要更改的列、更新的条件
2.开启事务并锁定表:MYSQL会锁定被更新的表,防止其他会话同时修改同一张表的数据,保证数据的一致性,where中的过滤条件列,如果用索引,锁行,无法用索引,锁表。InnoDB行锁是通过给索引上的索引项加锁来实现的,只有通过索引条件检索数据,InnoDB才使用行级锁,否则,InnoDB将使用表锁。
3.执行更新:MYSQL会根据更新条件确定需要更新的行,在内部进行数据的修改。更新的具体过程可能包括以下的几个步骤:
查找需要更新的行:MYSQL会执行一次或多次索引或全表扫描,定位到需要更新的行
执行更新操作:更新需要修改的列的值
更新相关索引:如果更新操作导致索引值发生变化,MYSQL会相应地更新相关的索引
会先更新内存(同时标记为脏页),然后将记录写到 redo log 里面,这个时候更新就算完成了。为了减少磁盘I/O,不会立即将脏页写入磁盘,后续由后台线程选择一个合适的时机将脏页写入到磁盘。这就是 WAL 技术,MySQL 的写操作并不是立刻写到磁盘上,而是先写 redo 日志,然后在合适的时间再将修改的行数据写到磁盘上。
4.提交事务:如果更新操作在事务中进行,则更新的结果会在提交事务时被写入磁盘并持久化
5.解锁表:更新完成后,MYSQL会释放对表的锁定,其他会话可以访问该表
在MYSQL开启了binlog时,事务提交时必须同时完成redolog和binlog的事务写入。为了保证两个日志的一致性,需要用到两阶段提交机制
InnoDB在写redolog的时候,并不是一次性写完的,而是有两个阶段:Prepare和Commit
1.在Redolog写入之前服务器崩溃,那么binlog和redolog都没有记录,两者是一致的
2.如果在写入redolog prepare阶段后立马崩溃,之后会在崩溃恢复的时候,由于redolog对应记录没有commit,所以需要拿redolog中的事务id去binlog中查找,查不到就执行回滚操作。
3.如果在binlog写入后立马崩溃,即使redolog没有commit,在恢复后由于能够通过redolog的事务id查找到binlog,所以是不执行回滚的
两阶段提交的问题:
1.磁盘 I/O 次数高:对于“双1”配置,每个事务提交都会进行两次 fsync(刷盘),一次是 redo log 刷盘,另一次是
binlog 刷盘。
2.锁竞争激烈:两阶段提交虽然能够保证「单事务」两个日志的内容一致,但在「多事务」的情况下,却不能保证两
者的提交顺序一致。
Explain SELECT * FROM Student
id列:每一个select都有一个对应的id号,并且都是从1开始自增的
如果id序号相同,从上往下执行
如果id序号不同,序号大先执行
如果两种都存在,先执行序号大,在同级从上往下执行
如果显示NULL,最后执行。表示结果集,并且不需要使用它来进行查询
select_type列:指示查询语句执行的查询操作类型
simple:简单select,不包括union与子查询(连接查询也属于simple类型)
EXPLAIN SELECT * FROM student
EXPLAIN select * from Student inner join orders on Student.id=order.stu_id
primary:复杂查询中最外层查询,比如使用union或union all时,id为1的记录select_type通常是primary
EXPLAIN select id from Student
union
select id from Order
subquery:指在select语句中出现的子查询语句,结果不依赖于外部查询(不在from语句中)
EXPLAIN SELECT Student.*,(SELECT name from Order where id=1) FROM Student
derived:派生表,在FROM子句的查询语句,表示从外部数据源中推导出来的,而不是从SELECT语句中的其他列中
选择出来的
EXPLAIN SELECT * FROM (SELECT name FROM Student WHERE id=1) as temp
union:分为union与union all两种,若第二个select出现在union之后,则被标记为union;如果union被from子句的子
查询包含,那么第一个select会被标记为derived;union会针对相同的结果集进行去重,union all不会进行去重处理
EXPLAIN SELECT * FROM (
SELECT id FROM Student WHERE name=‘t1’
UNION
SELECT id FROM Student WHERE name=‘t2’
UNION
SELECT id FROM Student WHERE name=‘t3’
) AS temp;
dependent union:当union作为子查询时,其中第一个union为dependent subquery,第二个union为dependent union
EXPLAIN SELECT * FROM Student WHERE id IN (
SELECT id FROM Student WHERE name='t1'
union
SELECT id FROM Student WHERE name='t2'
union
SELECT id FROM Student WHERE name='t3'
)
union result:如果两个查询中有相同的列,则会对这些列进行重复删除,只保留一个表中的列
EXPLAIN SELECT id FROM Student
union
SELECT id FROM Order
table:查询涉及的表名。如果有多个表,将显示多行记录
partitions:表分区情况
type:查询所使用的访问类型
效率从高到低分别为:system>const>eq_ref>ref>fulltext>ref_or_null>range>index>ALL,一般来说保证range级别,最好能达到ref级别
system:const类型的一种特殊场景,查询的表只有一行记录的情况,并且该表使用的存储引擎的统计数是精确的,
InnoDb存储引擎的统计数据不是精确的,虽然只有一条数据但是type类型为ALL
const:基于主键或唯一索引查看一行,当MYSQL对查询某部分进行优化,并转换为一个常量时,使用这些类型访问
转换成常量查询,效率高
eq_ref:基于主键或唯一索引连接两个表,对于每个索引键值,只有一条匹配记录,被驱动表的类型为'eq_ref'
-- 多表关联查询,单行匹配
SELECT * FROM ref_table,other_table
WHERE ref_table.key_column=other_table.column;
-- 多表关联查询,联合索引,多行匹配
SELECT * FROM ref_table,other_table
WHERE ref_table.key_column_part1=other_table.column
AND ref_table.key_column_part2=1;
ref:基于非唯一索引连接两个表或通过二级索引列与常量进行等值匹配,可能会存在多条匹配记录
-- 根据索引(非主键,非唯一索引),匹配到多行
SELECT * FROM ref_table WHERE key_column=expr;
range:使用非唯一索引扫描部分索引,比如使用索引获取某些范围区间的记录
SELECT * FROM tbl_name
WHERE key_column BETWEEN 10 and 20;
SELECT * FROM tbl_name
WHERE key_column IN (10,20,30);
index:扫描整个索引就能拿到结果,一般是二级索引,这种查询一般为使用覆盖索引
all:扫描整个表进行匹配,即扫描聚簇索引树
null:MYSQL在优化过程中分解语句就已经可以获取到结果,执行时甚至不用访问表或索引
possible_type:表示在查询中可能使用某个索引或多个索引;如果没有选择索引,显示NULL
key:实际使用的索引
key_len:表示当优化器决定使用某个索引执行查询时,该索引记录的最大长度
ref:表示将哪个字段或常量和key列所使用的字段进行比较
rows:全表扫描时表示需要扫描表的行数估计值;索引扫描时表示扫描索引的行数估计值;值越小越好
filtered:表示符合查询条件的数据百分比
extra:SQL执行查询的一些额外信息
“可重复读”是MYSQL的默认隔离级别的原因主要是为了平衡数据的一致性和并发性能。
通过将默认隔离级别设置为“可重复读”,MYSQL可以提供较高的数据一致性。这对于很多应用场景来说是非常重要的,特别是在需要保证事务中读取到的数据的一致性和稳定性时。
同时,"可重复读"隔离级别在一定程度上可以避免幻读问题,即当一个事务在读取数据时,其他事务并发地插入新的符合条件的数据,导致该事务的结果集发生变化。在"可重复读"隔离级别下,通过锁定读取的范围,可以避免幻读的问题。
虽然"可重复读"隔离级别可以提供较高的数据一致性,但也会对并发性能造成一定的影响。因为在该隔离级别下,需要对读取的数据进行一定程度的锁定,以保证事务内部的一致性。这可能导致一些潜在的锁竞争和性能下降。
什么是慢查询?
慢查询,顾名思义,就是执行很慢的查询。超过long_query_time参数设定的时间阈值,就被认为是慢的,是需要优
化的。慢查询被记录在慢查询日志里。
慢查询解读
第一行:记录时间
第二行:用户名、用户的IP信息、线程ID号
第三行:执行花费的时间【单位:毫秒】、执行获得锁的时间、获得的结果行数、扫描的数据行数
第四行:SQL执行的时间戳
第五行:具体的SQL语句
慢查询分析工具:
mysqldumpslow:
mysqldumpslow -s r -t 3 ../data/hadoop000-slow.log
-s order (c,t,l,r,at,al,ar)
c:总次数
t:总时间
l:锁的时间
r:总数据行
InnoDB在执行查询时,使用了一种称为“选择性指数调度”的策略来选择最适合的索引。选择性指数调度算法主要关注两个方面:选择性和成本。
选择性是指索引中的唯一性值的数量,即不重复值的比例。选择性越高,表示索引列的值不重复,具有更好的区分度,这样在查询时可以更快地定位到目标数据行。
成本是指通过索引访问所需的 I/O 操作次数和 CPU 资源消耗。
InnoDB会根据索引的选择性和成本来决定使用哪个索引。
1.利用慢查询日志定位慢查询SQL
2.通过explain分析慢查询SQL
3.修改SQL,尽量让SQL走索引
4.建立合理的索引
行格式(row_format),就是一条记录的存储结构。
InnoDB 提供了 4 种行格式,分别是 Redundant、Compact、Dynamic和 Compressed 行格式。
Redundant 是很古老的行格式了, MySQL 5.0 版本之前用的行格式,现在基本没人用了。
由于 Redundant 不是一种紧凑的行格式,所以 MySQL 5.0 之后引入了 Compact 行记录存储方式
Compact 是一种紧凑的行格式,设计的初衷就是为了让一个数据页中可以存放更多的行记录,从 MySQL 5.1 版本之后,行格式默认设置成 Compact。
Dynamic 和 Compressed 两个都是紧凑的行格式,它们的行格式都和 Compact 差不多,因为都是基于 Compact 改进一点东西。从 MySQL5.7 版本之后,默认使用 Dynamic 行格式。
Compact:
记录的额外信息
记录的额外信息包含 3 个部分:变长字段长度列表、NULL 值列表、记录头信息。
变长字段长度列表:在存储数据的时候,也要把数据占用的大小存起来,比如varchar(n) ,代表的是一个变长的字符
NULL值列表:表中的某些列可能会存储 NULL 值,如果把这些 NULL 值都放到记录的真实数据中会比较浪费空间,所以 Compact 行格式把这些值为 NULL 的列存储到 NULL值列表中。
如果存在允许 NULL 值的列,则每个列对应一个二进制位(bit),二进制位按照列的顺序逆序排列。
二进制位的值为1时,代表该列的值为NULL。
二进制位的值为0时,代表该列的值不为NULL。
记录头信息:记录头信息中包含的内容很多,几个比较重要的:
delete_mask :标识此条数据是否被删除。从这里可以知道,我们执行 detele 删除记录的时候,并不会真正的删除
记录,只是将这个记录的 delete_mask 标记为 1。
next_record:下一条记录的位置。从这里可以知道,记录与记录之间是通过链表组织的。在前面我也提到了,指向
的是下一条记录的「记录头信息」和「真实数据」之间的位置,这样的好处是向左读就是记录头信息,向右读就是真
实数据,比较方便。
record_type:表示当前记录的类型,0表示普通记录,1表示B+树非叶子节点记录,2表示最小记录,3表示最大记录
记录的真实数据:
row_id:如果我们建表的时候指定了主键或者唯一约束列,那么就没有 row_id 隐藏字段了。如果既没有指定主键,又没有唯一约束,那么 InnoDB 就会为记录添加 row_id 隐藏字段。row_id不是必需的,占用 6 个字节。
trx_id:事务id,表示这个数据是由哪个事务生成的。 trx_id是必需的,占用 6 个字节。
roll_pointer:这条记录上一个版本的指针。roll_pointer 是必需的,占用 7 个字节。
MySQL 规定除了 TEXT、BLOBS 这种大对象类型之外,其他所有的列(不包括隐藏列和记录头信息,也就是变长字段列表和NULL值列表所占用的字节数)占用的字节长度加起来不能超过 65535 个字节。
如果一个数据页存不了一条记录,InnoDB 存储引擎会自动将溢出的数据存放到「溢出页」中。在一般情况下,InnoDB 的数据都是存放在 「数据页」中。但是当发生行溢出时,溢出的数据会存放到「溢出页」中。
变长字段的变长字段长度需要用多少个字节表示,具体情况分为:
1.如果变长字段允许存储的最大字节数小于等于255字节,就会用1字节表示
2.如果变长字段允许存储的最大字节数大于255字节,就会用2字节表示
如果一张表只有一个 varchar(n) 字段,且允许为 NULL,字符集为 ascii。varchar(n) 中 n 最大取值为 65532。
计算公式:65535 - 变长字段字节数列表所占用的字节数 - NULL值列表所占用的字节数 = 65535 - 2 - 1 = 65532。
如果一个数据页存不了一条记录,InnoDB 存储引擎会自动将溢出的数据存放到「溢出页」中。然后真实数据处用 20 字节存储指向溢出页的地址,从而可以找到剩余数据所在的页。
查看InnoDB锁状态
show status like "innodb_row lock%";
Innodb_row_lock_current_waits;当前正在等待锁定的数量
Innodb_row_lock_time :从系统启动到现在锁定的总时间长度,单位ms;
Innodb_row_lock_time_avg:每次等待所花平均时间;
Innodb_row_lock_time_max:从系统启动到现在等待最长的一次所花的时间
Innodb_row_lock_waits :从系统启动到现在总共等待的次数
死锁的解决方案:
1.死锁无法避免,上线前要进行严格的压力测试
2.快速失败
innodb_lock_wait_timeout行锁超时时间
3.拆分sql,严禁大事务
4.充分利用索引,优化索引,尽量把有风险的事务sql使用上覆盖索引减少表锁,优化where条件前缀匹配,提升查询
速度
5.无法避免时
操作多张表时,尽量以相同的顺序来访问避免形成等待环路
单张表先排序再操作
使用排他锁 比如 for update
mysql将缓存中的数据分为两段,一段是young区域,一段是old区域
1.对于预读的数据,先将其缓存到old区域
2.old区域待了一定时间后,比如1s,再次被访问到,将其放入young区域头部
3.淘汰时,优先淘汰old区域
4.为了防止 young 区域节点频繁移动到头部。young 区域前面 1/4 被访问不会移动到链表头部,只有后面的 3/4被访
问了才会。
in通常是走索引的,当in后面的数据在数据表中超过30%(上面的例子的匹配数据大约6000/16000 = 37.5%)的匹配时,会走全表扫描,即不走索引,因此in走不走索引和后面的数据有关系。
表中创建索引,SELECT … WHERE 字段(必须是索引,否则行锁无效)。
注:InnoDB的行锁是针对索引加的锁,不是针对记录加的锁,并且该索引不能失效,否则都会从行锁升级为表锁。
加锁的对象是索引,加锁的基本单位是 next-key lock,它是由记录锁和间隙锁组合而成的,next-key lock 是前开后闭区间,而间隙锁是前开后开区间。
#在查询时添加行锁
select …… where 条件 for update
当where的条件是唯一索引的时候:
1.查询的记录存在,在索引树上定位到这一条记录后,将该记录的索引中的 next-key lock 会退化成「记录锁」。
2.查询的记录不存在,在索引树找到第一条大于该查询记录的记录后,将该记录的索引中的next-key退化为「间隙
锁」
唯一索引范围查询和等值查询的加锁规则是不同的。
1.针对「大于等于」的范围查询,因为存在等值查询的条件,那么如果等值查询的记录是存在于表中,那么该记录的
索引中的 next-key 锁会退化成记录锁
2.针对「小于或者小于等于」的范围查询,要看条件值的记录是否存在于表中:
当条件值的记录不在表中,那么不管是「小于」还是「小于等于」条件的范围查询,扫描到终止范围查询的记录
时,该记录的索引的 next-key 锁会退化成间隙锁,其他扫描到的记录,都是在这些记录的索引上加 next-key 锁。
当条件值的记录在表中,如果是「小于」条件的范围查询,扫描到终止范围查询的记录时,该记录的索引的 next-
key 锁会退化成间隙锁
非唯一索引等值查询
当我们用非唯一索引进行等值查询的时候,因为存在两个索引,一个是主键索引,一个是非唯一索引(二级索引),所以在加锁时,同时会对这两个索引都加锁,但是对主键索引加锁的时候,只有满足查询条件的记录才会对它们的主键索引加锁。
1.当查询的记录「存在」时,由于不是唯一索引,所以肯定存在索引值相同的记录,扫描到对应的索引记录后,继续
扫描,直到扫描到第一个不符合条件的二级索引记录就停止扫描。扫描过程中的记录加next-key锁,对扫描到的第一
个不符合条件的二级索引记录,next-key锁退化为间隙锁。同时,在符合查询条件的记录的主键索引上加记录锁。
2.扫描到第一条不符合条件的二级索引记录,该二级索引的 next-key 锁会退化成间隙锁。因为不存在满足查询条件
的记录,所以不会对主键索引加锁。
非唯一索引和主键索引的范围查询的加锁
非唯一索引范围查询,索引的 next-key lock 不会有退化为间隙锁和记录锁的情况,也就是非唯一索引进行范围查询时,对二级索引记录加锁都是加 next-key 锁。
两个事务即使生成的间隙锁的范围是一样的,也不会发生冲突,因为间隙锁目的是为了防止其他事务插入数据,因此间隙锁与间隙锁之间是相互兼容的。
在 MySQL 写日志的时候,可以看成两部分:
1.write: 将 log buffer 的数据写入磁盘内存映射(一块由 OS 管理的区域)
2.flush: 将磁盘内存映射的数据 flush 到磁盘
1.开启事务
默认情况下autocommit=1,如果我们没有显式开启事务,而是直接执行update,那么MYSQL就会隐式地为我们开启
一个事务,并在这条update执行结束后自动提交。
如果我们set autocommit=0,或者先执行了begin/start transaction;显式开启事务,那么update执行完成后不会自动
提交,需要我们手动发起commit或者rollback
2.SQL解析、查询计划生成
查询缓存
Mysql需要监测查询缓存涉及的每张表,只要这张表发生了任何变化,都要使其缓存失效
查询缓存生效的条件是查询语句完全一致,如果新的语句多了一个空格,或者大小写发生变化,查询缓存都不能生效
查询缓存在MYSQL5.7版本已经默认禁用了,在MYSQL8.0版本更是直接被删除。
3.查询要修改的数据
对磁盘和buffer pool的读取都是以页为单位
表空间号+页号
传入页号这个参数到buffer pool,然后buffer pool判断这个页是否在buffer pool中。如果在,则直接返回我们想要的
页;如果不在,则从磁盘中加载这个页到buffer pool中,再返回。
4.校验锁和加锁
获取元数据锁,加意向锁,获取行级锁
5.修改数据和生成日志
加上锁之后,就可以安全地对数据进行修改操作了
InnoDB存储引擎在这步要写三部分内容:
1.数据页:
修改前后这行数据的大小完全没变->就地更新
任何字段的大小发生了变化->插入一条新记录
2.undo log
记录发生的变化
3.redo log
记录原来的值
6.本地提交
两阶段提交
7.主从复制
主从复制的策略:
1.异步复制:主库写完binlog后即可返回提交成功,无需等待备库响应
2.半同步复制:主库接收到指定数量的备机转储relay log返回ack
3.同步复制:主库等到备库回放relay log执行完事务之后才可返回提交成功
8.返回提交成功
9.脏页刷入磁盘
buffer pool是Innodb存储引擎设计的一个缓冲池,来提高数据库的读写性能。
为了更好的管理这些在 Buffer Pool 中的缓存页,InnoDB 为每一个缓存页都创建了一个控制块,控制块信息包括「缓存页的表空间、页号、缓存页地址、链表节点」等等。
如何管理空闲页?
buffer pool是一片连续的内存空间,当Mysql运行一段时间后,这片连续的内存空间中的缓存页既有空闲的,也有被使用的。
为了能够快速找到空闲的缓存页,可以使用链表结构,将空闲缓存页的「控制块」作为链表的节点,这个链表称为 Free 链表(空闲链表)。
如何管理脏页?
为了能快速知道哪些缓存页是脏的,于是就设计出 Flush 链表,它跟 Free 链表类似的,链表的节点也是控制块,区别在于 Flush 链表的元素都是脏页。
如何提高缓存命中率?
LRU算法
预读失效问题的解决
将 LRU 划分了 2 个区域:old 区域 和 young 区域。
划分这两个区域后,预读的页就只需要加入到 old 区域的头部,当页被真正访问的时候,才将页插入 young 区域的头部。如果预读的页一直没有被访问,就会从 old 区域移除,这样就不会影响 young 区域中的热点数据。
Buffer Pool污染问题的解决
当某一个 SQL 语句扫描了大量的数据时,在 Buffer Pool 空间比较有限的情况下,可能会将 Buffer Pool 里的所有页都替换出去,导致大量热数据被淘汰了,等这些热数据又被再次访问的时候,由于缓存未命中,就会产生大量的磁盘 IO,MySQL 性能就会急剧下降,这个过程被称为 Buffer Pool 污染。
Mysql的做法:
如果后续的访问时间与第一次访问的时间在某个时间间隔内(默认是 1000 ms),那么该缓存页就不会被从 old 区域移动到 young 区域的头部;
如果后续的访问时间与第一次访问的时间不在某个时间间隔内,那么该缓存页移动到 young 区域的头部;
脏页何时刷入磁盘?
1.当 redo log 日志满了的情况下,会主动触发脏页刷新到磁盘;
2.Buffer Pool 空间不足时,需要将一部分数据页淘汰掉,如果淘汰的是脏页,需要先将脏页同步到磁盘;
3.MySQL 认为空闲时,后台线程会定期将适量的脏页刷入到磁盘;
4.MySQL 正常关闭之前,会把所有的脏页刷入到磁盘;
1.合理使用索引
2.优化查询语句
3.适当调整服务器配置
4.定期维护数据库
5.合理分配资源和连接管理
6.使用缓存技术
7.数据分区和分表
8.应用负载均衡技术
9.优化数据库设计
10.监控性能和调优
1.redo log是在InnoDB存储引擎层产生,而binlog是MySQL数据库的上层产生的,并且二进制日志不仅仅针对INNODB存储引擎,MySQL数据库中的任何存储引擎对于数据库的更改都会产生二进制日志。
2.两种日志记录的内容形式不同。MySQL的binlog是逻辑日志,其记录是对应的SQL语句。而innodb存储引擎层面的重做日志是物理日志。
3.两种日志与记录写入磁盘的时间点不同,二进制日志只在事务提交完成后进行一次写入。而innodb存储引擎的重做日志在事务进行中不断地被写入,并日志不是随事务提交的顺序进行写入的。
二进制日志仅在事务提交时记录,并且对于每一个事务,仅在事务提交时记录,并且对于每一个事务,仅包含对应事务的一个日志。而对于innodb存储引擎的重做日志,由于其记录是物理操作日志,因此每个事务对应多个日志条目,并且事务的重做日志写入是并发的,并非在事务提交时写入,其在文件中记录的顺序并非是事务开始的顺序。
4.binlog不是循环使用,在写满或者重启之后,会生成新的binlog文件,redo log是循环使用。
5.binlog可以作为恢复数据使用,主从复制搭建,redo log作为异常宕机或者介质故障后的数据恢复使用
group by会根据后面的字段的值情况将相同值的记录放在一起,然后再通过select获取值。
select * from Table group by id
这条语句是不对的,必须是某一列或者某个列的聚合函数
如果执行select * 的话,那么返回的结果应该是虚拟表3,可是id和number中有的单元格里面的内容是多个值的,而关系数据库就是基于关系的,单元格中是不允许有多个值的,所以你看,执行select * 语句就报错了。
我们再看name列,每个单元格只有一个数据,所以我们select name的话,就没有问题了。为什么name列每个单元格只有一个值呢,因为我们就是用name列来group by的。
那么对于id和number里面的单元格有多个数据的情况怎么办呢?答案就是用 聚合函数。聚合函数就用来输入多个数据,输出一个数据的。如cout(id),sum(number),而每个聚合函数的输入就是每一个多数据的单元格。
1.mysql的缓存是本地缓存,如果有多台服务器,sql语句会随机发送给其中一台,无法保证相同的请求会发送给同一台,这样本地缓存命中率比较低
2.从mysql查询缓存中取出结果或者将结果添加进查询缓存中,会带来额外性能消耗
3.当表的结构或内容发送变化时,这个表的缓存查询将不再有效,查询缓存值的相关条目将被清空
4.redis缓存具有更丰富的数据类型
SQL注入是一种常见的网络安全威胁,攻击者通过在用户输入中插入恶意的SQL代码,从而可以执行未经授权的数据库操作。可以采取以下的措施来解决:
1.使用参数化查询:查询语句中设置占位符(?),并在后面使用java的setString()方法设置参数值,可以防止SQL注入
攻击。setString()会对敏感字符前面加一个转义字符,让其变为一个普通的字符串。
2.输入验证和过滤:对用户的输入进行验证和过滤,例如使用正则表达式来对输入进行验证,对不符合正则表达式的
输入认为是无效的
3.使用存储过程
4.最小权限原则:为了保护敏感数据和系统资源,用户应该被授予最小必需的权限。
5.使用ORM框架
6.使用准备语句:准备语句是一种预编译的SQL语句,它允许开发人员将参数化查询发送到数据库,并在执行时提供
参数值
7.使用安全的数据库连接:使用SSL/TLS加密,避免在连接字符串明文存储敏感信息,使用准备语句,最小化数据库
权限
8.避免动态拼接SQL语句
9.使用防火墙和入侵检测系统
10.定期更新和维护数据库软件
steal/no-steal:是否允许一个uncommited的事务将修改更新到磁盘,如果是steal策略,那么此时磁盘上就可能包含uncommitted的数据,因此系统需要记录undo log,以防事务abort时进行回滚(roll back)。如果是no steal策略,就表示磁盘上不会存在uncommitted数据,因此无需回滚操作,也就无需记录undo log
force/no-force:forece策略表示事务在committed之后必须将所有更新立刻持久化到磁盘,这样会导致磁盘发生很多小的写操作(更可能是随机写)。no-force表示事务在committed之后可以不立即持久化到磁盘,这样可以缓存很多的更新批量持久化到磁盘,这样可以降低磁盘操作次数,但是如果commited之后发生crash,那么此时已经commited的事务数据将丢失,因此系统需要记录redo log,在系统重启时候进行前滚(roll-forward)操作。
steal/no-steal主要决定了磁盘是否会包含uncommitted的数据。force/no-force主要决定了磁盘上是否会不包含已经commited的数据。
现在的DBMS常用的是steal/no-force策略,因此一般需要记录redo log和undo log。这样可以获得较快的运行时性能,代价就是在数据库恢复的时候需要做很多的事情,增大了系统重启的时间。
1.未提交读:事务读取时未对数据进行加锁,读取完释放锁,在修改数据的时候对数据增加行级共享锁,修改完释放锁
2.已提交读:事务读取时增加行级共享锁,读取结束,立即释放。事务在修改数据时增加行级排他锁,直到事务结束才释放。
3.可重复读:事务读取数据时,增加行级共享锁,事务结束才释放,修改数据时增加行级排它锁,直到事务结束
4.序列化:事务读取时,必须先增加表级共享锁,直到事务结束时才释放,修改数据时增加表级排它锁,直到事务结束才释放
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。