当前位置:   article > 正文

MySQL高级--个人笔记_尚硅谷mysql高级篇笔记

尚硅谷mysql高级篇笔记

 学习视频:尚硅谷MySQL数据库高级,mysql优化,数据库优化_哔哩哔哩_bilibili

文档是复制尚硅谷的复习资料,个人只是为了方便复习。


 目录

Mysql 逻辑架构简介

1. 整体架构图

1.1 连接层

1.2 服务层

1.3.引擎层

1.4.存储层

2. show profile

2.1 开启 profile

2.2 使用 profile

 2.3 大致的查询流程

2.4 SQL 的执行顺序

2.5 MyISAM 和 InnoDB 

第 4 章 SQL 预热 

1. 常见的 Join 查询图

 2. Join 示例

2.1 建表语句

2.2 案例

 第 5 章 索引优化分析

1. 索引的概念

1.1 是什么

1.2 优缺点

2. Mysql 的索引

2.1 Btree 索引

2.2 B+tree 索引  

2.3 聚簇索引和非聚簇索引

2.4 时间复杂度(扩展)

3. Mysql 索引分类

3.1 单值索引

3.2 唯一索引

3.3 主键索引

3.4 复合索引

3.5 基本语法

4. 索引的创建时机

4.1 适合创建索引的情况

4.2 不适合创建索引的情况

5. 性能分析

5.1 MySql Query Optimizer

5.2 MySQL常见瓶颈

第 6 章 Explain 性能分析

1. 概念

2. Explain 准备工作

3. id

4. select_type

4.1 SIMPLE

4.2 PRIMARY

4.3 DERIVED

4.4 SUBQUERY

4.5 DEPENDENT SUBQUERY

4.6 UNCACHEABLE SUBQUREY

4.7 UNION

4.8 UNION RESULT

5. table

6. type

6.1 system

6.2 const

6.3 eq_ref

6.4 ref

6.5 range

6.6 index

6.8 index_merge

6.9 ref_or_null

6.10 index_subquery 

​ 6.11 unique_subquery

7. possible_keys

8. key

9. key_len

10. ref

11. rows

12. Extra

12.1 Using filesort

12.2 Using temporary

 12.3 Using index

12.4 Using where

12.5 Using join buffer

12.6 impossible where

 12.7 select tables optimized away

 第 7 章 批量数据脚本

1. 插入数据

1.1 建表语句

1.2 设置参数

1.3 编写随机函数

1.4 创建存储过程

1.5 调用存储过程

1.6 批量删除某个表上的所有索引

第 8 章 单表使用索引常见的索引失效

1. 全值匹配我最爱

1.1 有以下 SQL 语句

1.2 建立索引

 2. 最佳左前缀法则

3. 不要在索引列上做任何计算

3.1 在查询列上使用了函数

3.2 在查询列上做了转换

4. 索引列上不能有范围查询

5. 尽量使用覆盖索引

 6. 使用不等于(!= 或者<>)的时候

7. 字段的 is not null 和 is null 

 8. like 的前后模糊匹配

9. 减少使用 or

10. 练习

11. 口诀

第 9 章 关联查询优化

1. 建表语句

2. 案例

2.1 left join

 2.2 inner join

​ 2.3 四个关联查询案例分析

 第 10 章 子查询优化

1. 案例 

第 11 章 排序分组优化

1. 无过滤不索引

2. 顺序错,必排序

3. 方向反,必排序

4. 索引的选择 

5. using filesort

5.1 mysql 的排序算法

5.2 如何优化

6. 使用覆盖索引

 7. group by

 第 12 章 练习

1. 案例一

2. 案例二

3. 案例三 

4. 案例四 

5. 案例五 

6. 案例六

7. 案例七


MySQL 逻辑架构简介

1. 整体架构图

和其它数据库相比, MySQL 有点与众不同,它的架构可以在多种不同场景中应用并发挥良好作用。主要体现在 存储引擎的架构上,插件式的存储引擎架构将查询处理和其它的系统任务以及数据的存储提取相分离。这种架构可以根据业务的需求和实际需要选择合适的存储引擎。
各层介绍:

1.1 连接层

最上层是一些客户端和连接服务,包含本地 sock 通信和大多数基于客户端 / 服务端工具实现的类似于 tcp/ip 的通信。主要完成一些类似于连接处理、授权认证、及相关的安全方案。在该层上引入了线程池的概念,为通过认证安全接入的客户端提供线程。同样在该层上可以实现基于 SSL 的安全链接。服务器也会为安全接入的每个客户端验证它所具有的操作权限。

1.2 服务层

Management Serveices & Utilities
系统管理和控制工具
SQL Interface:
SQL 接口。接受用户的 SQL 命令,并且返回用户需要查询的结果。比如 select from
就是调用 SQL Interface
Parser
解析器。 SQL 命令传递到解析器的时候会被解析器验证和解析
Optimizer
查询优化器。 SQL 语句在查询之前会使用查询优化器对查询进行优化,比如有
where 条件时,优化器来决定先投影还是先过滤。
Cache Buffer
查询缓存。如果查询缓存有命中的查询结果,查询语句就可以直接去查询缓存中取数据。这个缓存机制是由一系列小缓存组成的。比如表缓存,记录缓存,key 缓存,
权限缓存等

1.3.引擎层

存储引擎层,存储引擎真正的负责了 MySQL 中数据的存储和提取,服务器通过 API 与存储引擎进行通信。不同的存储引擎具有的功能不同,这样我们可以根据自己的实际需要进行选取。

1.4.存储层

数据存储层,主要是将数据存储在运行于裸设备的文件系统之上,并完成与存储引擎的交互。

2. show profile

利用 show profile 可以查看 sql 的执行周期!

2.1 开启 profile

查看 profile 是否开启: show variables like '%profiling%' 

如果没有开启,可以执行 set profiling=1 开启!

2.2 使用 profile

执行 show prifiles 命令,可以查看最近的几次查询。

 根据 Query_ID,可以进一步执行 show profile cpu,block io for query Query_id 来查看 sql 的具体执行步骤。

 2.3 大致的查询流程

MySQL 的查询流程大致是:
        MySQL 客户端通过协议与 MySQL 服务器建连接,发送查询语句,先检查查询缓存,如果命中,直接返回结果,否则进行语句解析, 也就是说,在解析查询之前,服务器会先访问查询缓存(query cache)——它存储 SELECT 语句以及 相应的查询结果集。如果某个查询结果已经位于缓存中,服务器就不会再对查询进行解析、优化、以及执行。它仅仅将缓存中的结果返回给用户即可,这将大大提高系统的性能。
        语法解析器和预处理:首先MySQL通过关键字将 SQL 语句进行解析,并生成一颗对应的“解析树”。MySQL解析器将使用 MySQL语法规则验证和解析查询;预处理器则根据一些MySQL规则进一步检查解析树是否合法。
        查询优化器当解析树被认为是合法的了,并且由优化器将其转化成执行计划。一条查询可以有很多种执行方式, 最后都返回相同的结果。优化器的作用就是找到这其中最好的执行计划。然后,MySQL 默认使用的 BTREE 索引,并且一个大致方向是 : 无论怎么折腾 sql,至少在目前来说,MySQL最多只用到表中的一个索引。

2.4 SQL 的执行顺序

手写的顺序:

真正执行的顺序:
        随着 MySQL  版本的更新换代,其优化器也在不断的升级,优化器会分析不同执行顺序产生的性能消耗不同而动态调整执行顺序。下面是经常出现的查询顺序:

 

2.5 MyISAM InnoDB 

对比项
MyISAM InnoDB
外键
不支持
支持
事务
不支持
支持
行表锁
表锁,即使操作一条记录也会锁住整个表, 不适合高并发的操作
行锁, 操作时只锁某一行,不对其它行有影响,
适合高并发 的操作
缓存
只缓存索引,不缓存真实数据
不仅缓存索引还要缓存真实数据,对内存要求较高,而且内存大小对性能有决定性的影响
关注点
读性能
并发写、事务、资源
默认安装
Y
Y
默认使用
N
Y
自 带 系 统 表
使用
Y
N

 show engines:查看所有的数据库引擎

show variables like '%storage_engine%' 查看默认的数据库引擎

 

4 SQL 预热 

1. 常见的 Join 查询图

 2. Join 示例

2.1 建表语句

CREATE TABLE `t_dept` (
`id` INT(11) NOT NULL AUTO_INCREMENT,
`deptName` VARCHAR(30) DEFAULT NULL,
`address` VARCHAR(40) DEFAULT NULL,
PRIMARY KEY (`id`)
) ENGINE=INNODB AUTO_INCREMENT=1 DEFAULT CHARSET=utf8;
CREATE TABLE `t_emp` (
`id` INT(11) NOT NULL AUTO_INCREMENT,
`name` VARCHAR(20) DEFAULT NULL,
`age` INT(3) DEFAULT NULL,
`deptId` INT(11) DEFAULT NULL,
empno int not null,
PRIMARY KEY (`id`),
KEY `idx_dept_id` (`deptId`)
#CONSTRAINT `fk_dept_id` FOREIGN KEY (`deptId`) REFERENCES `t_dept` (`id`)
) ENGINE=INNODB AUTO_INCREMENT=1 DEFAULT CHARSET=utf8;
INSERT INTO t_dept(deptName,address) VALUES(' 华山 ',' 华山 ');
INSERT INTO t_dept(deptName,address) VALUES(' 丐帮 ',' 洛阳 ');
INSERT INTO t_dept(deptName,address) VALUES(' 峨眉 ',' 峨眉山 ');
INSERT INTO t_dept(deptName,address) VALUES(' 武当 ',' 武当山 ');
INSERT INTO t_dept(deptName,address) VALUES(' 明教 ',' 光明顶 ');
INSERT INTO t_dept(deptName,address) VALUES(' 少林 ',' 少林寺 ');
INSERT INTO t_emp(NAME,age,deptId,empno) VALUES(' 风清扬 ',90,1,100001);
INSERT INTO t_emp(NAME,age,deptId,empno) VALUES(' 岳不群 ',50,1,100002);
INSERT INTO t_emp(NAME,age,deptId,empno) VALUES(' 令狐冲 ',24,1,100003);
INSERT INTO t_emp(NAME,age,deptId,empno) VALUES(' 洪七公 ',70,2,100004);
INSERT INTO t_emp(NAME,age,deptId,empno) VALUES(' 乔峰 ',35,2,100005);
INSERT INTO t_emp(NAME,age,deptId,empno) VALUES(' 灭绝师太 ',70,3,100006);
INSERT INTO t_emp(NAME,age,deptId,empno) VALUES(' 周芷若 ',20,3,100007);
INSERT INTO t_emp(NAME,age,deptId,empno) VALUES(' 张三丰 ',100,4,100008);
INSERT INTO t_emp(NAME,age,deptId,empno) VALUES(' 张无忌 ',25,5,100009);
INSERT INTO t_emp(NAME,age,deptId,empno) VALUES(' 韦小宝 ',18,null,100010);

2.2 案例

1.所有有部门人员的信息(要求显示部门名称)

select * from t_emp a inner join t_dept b on a.deptId = b.id

 2. 列出所有人员及其部门信息

select * from t_emp a left join t_dept b on a.deptId = b.id

 3. 列出所有部门的人员信息

select * from t_emp a right join t_dept b on a.deptId = b.id

  4. 列出没有部门的人员信息

select * from t_emp a left join t_dept b on a.deptId = b.id where b.id is null

 5. 列出没有人员的部门信息

select * from t_emp a right join t_dept b on a.deptId = b.id where a.id is null

  6. 所有人员和部门的对应关系

select * from t_emp a left join t_dept b on a.deptId = b.id
union
select * from t_emp a right join t_dept b on a.deptId = b.id

 7. 所有没有入部门的人员和没人入的部门

select * from t_emp a left join t_dept b on a.deptId = b.id where b.id is null
union
select * from t_emp a right join t_dept b on a.deptId = b.id where a.id is null

 
5 章 索引优化分析

1. 索引的概念

1.1 是什么

MySQL 官方对索引的定义为:索引(Index )是帮助 MySQL 高效获取数据的数据结构。可以得到索引的本质: 索引是数据结构。可以简单理解为 排好序的快速查找数据结构
在数据之外,数据库系统还维护着满足特定查找算法的数据结构,这些数据结构以某种方式引用(指向)数据,这样就可以在这些数据结构上实现高级查找算法。这种数据结构,就是索引。下图就是一种可能的索引方式示例:
左边是数据表,一共有两列七条记录,最左边的是数据记录的物理地址 为了加快 Col2 的查找,可以维护一个右边所示的二叉查找树,每个节点分别包含索引键值和一个指向对应数据记录物理地址的指针,这样就可以运用二叉查找在一定的复杂度内获取到相应数据,从而快速的检索出符合条件的记录。 一般来说索引本身也很大,不可能全部存储在内存中,因此索引往往以索引文件的形式存储的磁盘上。

1.2 优缺点

优势
  • 提高数据检索的效率,降低数据库的IO成本。
  • 通过索引列对数据进行排序,降低数据排序的成本,降低了CPU的消耗。
劣势
  • 虽然索引大大提高了查询速度,同时却会降低更新表的速度,如对表进行INSERTUPDATEDELETE。因为更新表时,MySQL不仅要保存数据,还要保存一下索引文件每次更新添加了索引列的字段,都会调整因为更新所带来的键值变化后的索引信息。
  • 实际上索引也是一张表,该表保存了主键与索引字段,并指向实体表的记录,所以索引列也是要占用空间

2. MySQL 的索引

2.1 Btree 索引

MySQL 使用的是 Btree 索引。
【初始化介绍】
一颗 b 树,浅蓝色的块我们称之为一个磁盘块,可以看到每个磁盘块包含几个数据项(深蓝色所示)和指针(黄色所示)
如磁盘块 1 包含数据项 17 35 ,包含指针 P1 P2 P3
P1 表示小于 17 的磁盘块, P2 表示在 17 35 之间的磁盘块, P3 表示大于 35 的磁盘块。
真实的数据存在于叶子节点即 3 5 9 10 13 15 28 29 36 60 75 79 90 99
非叶子节点不存储真实的数据,只存储指引搜索方向的数据项,如 17 35 并不真实存在于数据表中。
【查找过程】
如果要查找数据项 29 ,那么首先会把磁盘块 1 由磁盘加载到内存,此时发生一次 IO ,在内存中用二分查找确定 29在 17 35 之间,锁定磁盘块 1 P2 指针,内存时间因为非常短(相比磁盘的 IO)可以忽略不计,通过磁盘块 1 P2 指针的磁盘地址把磁盘块 3 由磁盘加载到内存,发生第二次 IO 29 26 30 之间,锁定磁盘块 3 P2 针,通过指针加载磁盘块 8 到内存,发生第三次 IO,同时内存中做二分查找找到 29 ,结束查询,总计三次 IO 真实的情况是, 3 层的 b+ 树可以表示上百万的数据,如果上百万的数据查找只需要三次 IO ,性能提高将是巨大的,如果没有索引,每个数据项都要发生一次 IO ,那么总共需要百万次的 IO ,显然成本非常非常高。

2.2 B+tree 索引  

B+Tree B-Tree 的区别
1 B- 树的关键字和记录是放在一起的,叶子节点可以看作外部节点,不包含任何信息; B+ 树的非叶子节点中只有关键字和指向下一个节点的索引,记录只放在叶子节点中。
2 )在 B- 树中,越靠近根节点的记录查找时间越快,只要找到关键字即可确定记录的存在;而 B+ 树中每个记录的查找时间基本是一样的,都需要从根节点走到叶子节点,而且在叶子节点中还要再比较关键字。从这个角度看 B- 树的性能好像要比 B+ 树好,而在实际应用中却是 B+ 树的性能要好些。因为 B+ 树的非叶子节点不存放实际的数据, 这样每个节点可容纳的元素个数比 B- 树多,树高比 B- 树小,这样带来的好处是减少磁盘访问次数。尽管 B+ 树找到 一个记录所需的比较次数要比 B- 树多,但是一次磁盘访问的时间相当于成百上千次内存比较的时间,因此实际中 B+ 树的性能可能还会好些,而且 B+ 树的叶子节点使用指针连接在一起,方便顺序遍历(例如查看一个目录下的所有 文件,一个表中的所有记录等),这也是很多数据库和文件系统使用 B+ 树的缘故。
思考:为什么说 B+ 树比 B- 树更适合实际应用中操作系统的文件索引和数据库索引?
1) B+ 树的磁盘读写代价更低
B+ 树的内部结点并没有指向关键字具体信息的指针。因此其内部结点相对 B 树更小。如果把所有同一内部结点的关键字存放在同一盘块中,那么盘块所能容纳的关键字数量也越多。一次性读入内存中的需要查找的关键字也就 越多。相对来说 IO 读写次数也就降低了。
2) B+ 树的查询效率更加稳定
由于非终结点并不是最终指向文件内容的结点,而只是叶子结点中关键字的索引。所以任何关键字的查找必须走一条从根结点到叶子结点的路。所有关键字查询的路径长度相同,导致每一个数据的查询效率相当。

2.3 聚簇索引和非聚簇索引

聚簇索引并不是一种单独的索引类型,而是一种数据存储方式。术语‘聚簇’表示数据行和相邻的键值聚簇的存储在一起。如下图,左侧的索引就是聚簇索引,因为数据行在磁盘的排列和索引排序保持一致。

聚簇索引的好处:
按照聚簇索引排列顺序,查询显示一定范围数据的时候,由于数据都是紧密相连,数据库不用从多个数据块中提取数据,所以节省了大量的 io 操作。
聚簇索引的限制:
对于 MySQL  数据库目前只有 innodb 数据引擎支持聚簇索引,而 Myisam 并不支持聚簇索引。
由于数据物理存储排序方式只能有一种,所以每个 Mysql 的表只能有一个聚簇索引。一般情况下就是该表的主键。
为了充分利用聚簇索引的聚簇的特性,所以 innodb 表的主键列尽量选用有序的顺序 id ,而不建议用无序的 id ,比如 uuid 这种

2.4 时间复杂度(扩展)

同一问题可用不同算法解决,而一个算法的质量优劣将影响到算法乃至程序的效率。算法分析的目的在于选择合适算法和改进算法。
时间复杂度是指执行算法所需要的计算工作量,用大 O 表示记为: O(…)

3. Mysql 索引分类

3.1 单值索引

概念: 即一个索引只包含单个列,一个表可以有多个单列索引
语法:
所表一起创建:
CREATE TABLE customer (
id INT(10) UNSIGNED AUTO_INCREMENT ,
customer_no VARCHAR(200),
customer_name VARCHAR(200),
PRIMARY KEY(id),
KEY (customer_name)
);
单独建单值索引:
CREATE INDEX idx_customer_name ON customer(customer_name);

3.2 唯一索引

概念:索引列的值必须唯一,但允许有空值

随表一起创建:
CREATE TABLE customer (
id INT(10) UNSIGNED AUTO_INCREMENT ,
customer_no VARCHAR(200),
customer_name VARCHAR(200),
PRIMARY KEY(id),
KEY (customer_name),
UNIQUE (customer_no)
);
单独建唯一索引:
CREATE UNIQUE INDEX id x_customer_no ON customer(customer_no);

3.3 主键索引

概念:设定为主键后数据库会自动建立索引,innodb为聚簇索引

随表一起建索引
CREATE TABLE customer (id INT(10) UNSIGNED
AUTO_INCREMENT ,customer_no VARCHAR(200),customer_name
VARCHAR(200),
PRIMARY KEY(id)
);
单独建主键索引:
ALTER TABLE customer add PRIMARY KEY customer(customer_no);
删除 建主键索引:
ALTER TABLE customer drop PRIMARY KEY ;
修改 建主键索引:
必须先删除掉 (drop) 原索引,再新建 (add) 索引

3.4 复合索引

概念:即一个索引包含多个列

随表一起建索引:
CREATE TABLE customer (
id INT(10) UNSIGNED AUTO_INCREMENT ,
customer_no VARCHAR(200),
customer_name VARCHAR(200),
PRIMARY KEY(id),
KEY (customer_name),
UNIQUE (customer_name),
KEY (customer_no,customer_name)
);
单独建索引:
CREATE INDEX idx_no_name ON customer(customer_no,customer_name);

3.5 基本语法

操作
命令
创建
CREATE [UNIQUE ] INDEX [indexName] ON table_name(column))
删除
DROP INDEX [indexName] ON mytable;
查看
SHOW INDEX FROM table_name\G
使 用 Alter
命令
ALTER TABLE tbl_name ADD PRIMARY KEY (column_list) : 该语句添加一个主键,
这意味着索引值必须是唯一 ,且不能为 NULL
ALTER TABLE tbl_name ADD PRIMARY KEY (column_list)这条语句创建索引的值
必须要是唯一的 (除NULL外,NULL可能会出现多次)
ALTER TABLE tbl_name ADD INDEX index_name (column_list): 添加普通索引,
索引值可出现多次。
ALTER TABLE tbl_name ADD FULLTEXT index_name (column_list): 该语句指定了索引为
FULLTEXT 用于全文索 引。

4. 索引的创建时机

4.1 适合创建索引的情况

  •  主键自动建立唯一索引;
  • 频繁作为查询条件的字段应该创建索引
  • 查询中与其它表关联的字段,外键关系建立索引
  • 单键/组合索引的选择问题,组合索引性价比更高
  • 查询中排序的字段,排序字段若通过索引去访问将大大提高排序速度
  • 查询中统计或者分组字段 

4.2 不适合创建索引的情况

  • 表记录太少
  • 经常增删改的表或者字段
  • Where 条件里用不到的字段不创建索引
  • 过滤性不好的不适合建索引

5. 性能分析

5.1 MySql Query Optimizer

1、Mysql中专门负责优化SELECT语句的优化器模块,主要功能:通过计算分析系统中收集到的统计信息,为客户端请求的Query提供他认为最优的执行计划(他认为最优的数据检索方式,但不见得DBA认为是最优的,这部分最耗费时间)

2、当客户端向MySQL请求一条Query,命令解析器模块完成请求分类,区别出示SELECT并转发给MySQL Query Optimizer时,MySQL Query Optimizer首先会对整条Query进行优化,处理掉一些常量表达式的预算,直接换算成常量值。并对Query中查询条件进行简化和转换,如去掉一些无用或显而易见的条件、结构调整没有Himt或Hint信息(如果有),则会读取所涉及对象的统计信息,根据Query进行写相应的计算分析,然后再得出最后的执行计划。

5.2 MySQL常见瓶颈

  1. CPU:CPU在饱和的时候一般发生在数据装入内存或从磁盘上读取数据时候
  2. IO: 磁盘I/O瓶颈发生在装入数据远大于内存容量的时候
  3. 服务器硬件的性能瓶颈:top,free,iostat,和vmstat来查看系统的性能状态

6 Explain 性能分析

1. 概念

使用 EXPLAIN 关键字可以模拟优化器执行 SQL 查询语句,从而知道 MySQL 是如何处理你的 SQL 语句的。分析你的查询语句或是表结构的性能瓶颈。

能干嘛

  • 表的读取顺序
  • 数据读取操作的操作类型
  • 哪些索引可以使用
  • 哪些索引被实际使用
  • 表之间的引用
  • 每张表有多少行被优化器查询
用法: Explain+SQL 语句。
Explain 执行后返回的信息:

2. Explain 准备工作

CREATE TABLE t1(
id INT(10) AUTO_INCREMENT,
content VARCHAR(100) NULL , PRIMARY KEY (id)
);
CREATE TABLE t2(
id INT(10) AUTO_INCREMENT,
content VARCHAR(100) NULL , PRIMARY KEY (id)
);
CREATE TABLE t3(
id INT(10) AUTO_INCREMENT,
content VARCHAR(100) NULL , PRIMARY KEY (id)
);
CREATE TABLE t4(
id INT(10) AUTO_INCREMENT,
content VARCHAR(100) NULL , PRIMARY KEY (id)
);
INSERT INTO t1(content) VALUES(CONCAT('t1_',FLOOR(1+RAND()*1000)));
INSERT INTO t2(content) VALUES(CONCAT('t2_',FLOOR(1+RAND()*1000)));
INSERT INTO t3(content) VALUES(CONCAT('t3_',FLOOR(1+RAND()*1000)));
INSERT INTO t4(content) VALUES(CONCAT('t4_',FLOOR(1+RAND()*1000)));

3. id

select 查询的序列号 , 包含一组数字,表示查询中执行 select 子句或操作表的顺序。
explain select t2.*
from t1,t2,t3
where t1.id = t2.id and t1.id = t3.id
and t1.content = ''
id 相同,执行顺序由上至下

explain select t2.*
from t2
where id = (select id 
                                from t1
                                where id =(select t3.id
                                                        from t3 
                                                        where t3.content = ''))

 ②id 不同, 如果是子查询,id 的序号会递增,id 值越大优先级越高,越先被执行

explain select t2.* from (
    select t3.id
    from t3
    where t3.content = '') s1, t2
    where s1.id = t2.id; 

③有相同也有不同
id 如果相同,可以认为是一组,从上往下顺序执行;在所有组中,id 值越大,优先级越高,越先执行
衍生 = DERIVED
关注点: i d 号每个号码,表示一趟独立的查询。一个 sql 的查询趟数越少越好。

4. select_type

select_type 代表查询的类型,主要是用于区别普通查询、联合查询、子查询等的复杂查询。

4.1 SIMPLE

SIMPLE 代表单表查询,查询中不包含子查询或者UNION;

4.2 PRIMARY

查询中若包含任何复杂的子部分,最外层查询则被标记为 Primary

4.3 DERIVED

FROM 列表中包含的子查询被标记为 DERIVED( 衍生 ),MySQL 会递归执行这些子查询 , 把结果放在临时表里。

4.4 SUBQUERY

SELECT WHERE 列表中包含了子查询。

4.5 DEPENDENT SUBQUERY

SELECT WHERE 列表中包含了子查询 , 子查询基于外层。

都是 where 后面的条件, subquery 是单个值, dependent subquery 是一组值。

4.6 UNCACHEABLE SUBQUREY

当使用了 @@ 来引用系统变量的时候,不会使用缓存。

4.7 UNION

若第二个 SELECT 出现在 UNION 之后,则被标记为 UNION ;若 UNION 包含在 FROM 子句的子查询中 , 外层 SELECT将被标记为: DERIVED

4.8 UNION RESULT

UNION 表获取结果的 SELECT

5. table

这个数据是基于哪张表的。

6. type

type 是查询的访问类型。是较为重要的一个指标, 结果值从最好到最坏依次是
system > const > eq_ref > ref > fulltext > ref_or_null > index_merge > unique_subquery > index_subquery > range > index > ALL ,一般来说,得保证查询至少达到 range 级别,最好能达到 ref

6.1 system

表只有一行记录(等于系统表),这是 const 类型的特列,平时不会出现,这个也可以忽略不计

6.2 const

 表示通过索引一次就找到了,const 用于比较 primary key 或者 unique 索引。因为只匹配一行数据,所以很快 如将主键置于 where 列表中,MySQL 就能将该查询转换为一个常量。

6.3 eq_ref

 唯一性索引扫描,对于每个索引键,表中只有一条记录与之匹配。常见于主键或唯一索引扫描。

6.4 ref

非唯一性索引扫描,返回匹配某个单独值的所有行 . 本质上也是一种索引访问,它返回所有匹配某个单独值的行,然而,它可能会找到多个符合条件的行,所以他应该属于查找和扫描的混合体。
没用索引前:

 建立索引后:

6.5 range

只检索给定范围的行 , 使用一个索引来选择行。 key 列显示使用了哪个索引一般就是在你的 where 语句中出现了 between < > in 等的查询这种范围扫描索引扫描比全表扫描要好,因为它只需要开始于索引的某一点,而结束语另一点,不用扫描全部索引。

6.6 index

出现 index sql 使用了索引但是 没用通过索引进行过滤 ,一般是使用了 覆盖索引 或者是 利用索引进行了排序分组。

 

6.7 all 

Full Table Scan,将遍历全表以找到匹配的行。  

6.8 index_merge

在查询过程中需要多个索引组合使用,通常出现在有 or 的关键字的 sql 中。

6.9 ref_or_null

对于某个字段既需要关联条件,也需要 null 值得情况下。查询优化器会选择用 ref_or_null 连接查询。

6.10 index_subquery 

利用索引来关联子查询,不再全表扫描。  

 6.11 unique_subquery

 该联接类型类似于 index_subquery。 子查询中的唯一索引。

7. possible_keys

显示可能应用在这张表中的索引,一个或多个。查询涉及到的字段上若存在索引,则该索引将被列出, 但不一 定被查询实际使用。

8. key

实际使用的索引。如果为 NULL ,则没有使用索引。

9. key_len

表示索引中使用的字节数,可通过该列计算查询中使用的索引的长度。 key_len 字段能够帮你检查是否充分的利用上了索引。ken_len 越长,说明索引使用的越充分。

 

如何计算:
①先看索引上字段的类型 + 长度比如 int=4 ; varchar( 20 ) = 20 ; char( 20 ) = 20
②如果是 varchar 或者 char 这种字符串字段,视字符集要乘不同的值,比如 utf-8 要乘 3,GBK 要乘 2
varchar 这种动态字符串要加 2 个字节
④允许为空的字段要加 1 个字节
第一组: key_len=age 的字节长度 +name 的字节长度 =4+1 + ( 20*3+2)=5+62=67
第二组: key_len=age 的字节长度 =4+1=5

 

10. ref

显示索引的哪一列被使用了,如果可能的话,是一个常数。哪些列或常量被用于查找索引列上的值。

11. rows

rows 列显示 MySQL 认为它执行查询时必须检查的行数。越少越好!  

12. Extra

其他的额外重要的信息。

12.1 Using filesort

说明 mysql 会对数据使用一个外部的索引排序,而不是按照表内的索引顺序进行读取。 MySQL 中无法利用索引 完成的排序操作称为“ 文件排序
出现 filesort 的情况:

 优化后,不再出现 filesort 的情况:

查询中排序的字段,排序字段若通过索引去访问将大大提高排序速度。 

12.2 Using temporary

使了用临时表保存中间结果 ,MySQL 在对查询结果排序时使用临时表。常见于排序 order by 和分组查询 group by。
优化前:

 优化后:

 12.3 Using index

Using index 代表表示相应的 select 操作中使用了覆盖索引 (Covering Index) ,避免访问了表的数据行,效率不错! 如果同时出现 using where ,表明索引被用来执行索引键值的查找 ; 如果没有同时出现 using where ,表明索引只是用来读取数据而非利用索引执行查找。
利用索引进行了排序或分组。

12.4 Using where

表明使用了 where 过滤。

12.5 Using join buffer

 使用了连接缓存。

12.6 impossible where

where 子句的值总是 false ,不能用来获取任何元组。

 12.7 select tables optimized away

在没有 GROUPBY 子句的情况下,基于索引优化 MIN/MAX 操作或者对于 MyISAM 存储引擎优化 COUNT(*) 操作,不必等到执行阶段再进行计算,查询执行计划生成的阶段即完成优化。
innodb 中:

 Myisam 中:

 7 章 批量数据脚本

1. 插入数据

1.1 建表语句

CREATE TABLE `dept` (
`id` INT(11) NOT NULL AUTO_INCREMENT,
`deptName` VARCHAR(30) DEFAULT NULL,
`address` VARCHAR(40) DEFAULT NULL,
ceo INT NULL ,
PRIMARY KEY (`id`)
) ENGINE=INNODB AUTO_INCREMENT=1 DEFAULT CHARSET=utf8;
CREATE TABLE `emp` (
`id` INT(11) NOT NULL AUTO_INCREMENT,
`empno` INT NOT NULL ,
`name` VARCHAR(20) DEFAULT NULL,
`age` INT(3) DEFAULT NULL,
`deptId` INT(11) DEFAULT NULL,
PRIMARY KEY (`id`)
#CONSTRAINT `fk_dept_id` FOREIGN KEY (`deptId`) REFERENCES `t_dept` (`id`)
) ENGINE=INNODB AUTO_INCREMENT=1 DEFAULT CHARSET=utf8;

1.2 设置参数

在执行创建函数之前,首先请保证 log_bin_trust_function_creators 参数为 1 ,即 on 开启状态。
否则会报错:
查询: show variables like 'log_bin_trust_function_creators';
设置: set global log_bin_trust_function_creators=1;
当然,如上设置只存在于当前操作,想要永久生效,需要写入到配置文件中:
[mysqld] 中加上 log_bin_trust_function_creators=1

1.3 编写随机函数

创建函数,保证每条数据都不同。

1.3.1 随机产生字符串

DELIMITER $$
CREATE FUNCTION rand_string(n INT) RETURNS VARCHAR(255)
BEGIN
DECLARE chars_str VARCHAR(100) DEFAULT 'abcdefghijklmnopqrstuvwxyzABCDEFJHIJKLMNOPQRSTUVWXYZ';
DECLARE return_str VARCHAR(255) DEFAULT '';
DECLARE i INT DEFAULT 0;
WHILE i < n DO
SET return_str =CONCAT(return_str,SUBSTRING(chars_str,FLOOR(1+RAND()*52),1));
SET i = i + 1;
END WHILE;
RETURN return_str;
END $$
如果要删除函数,则执行: drop function rand_string;
# 用于随机产生多少到多少的编号
DELIMITER $$
CREATE FUNCTION rand_num (from_num INT ,to_num INT) RETURNS INT(11)
BEGIN
DECLARE i INT DEFAULT 0;
SET i = FLOOR(from_num +RAND()*(to_num -from_num+1))
;
RETURN i;
END$$
如果要删除函数: drop function rand_num;

1.4 创建存储过程

1.4.1 创建往 emp 表中插入数据的存储过程

DELIMITER $$
CREATE PROCEDURE insert_emp( START INT , max_num INT )
BEGIN
DECLARE i INT DEFAULT 0;
#set autocommit =0 autocommit 设置成 0
SET autocommit = 0;
REPEAT
SET i = i + 1;
INSERT INTO emp (empno, NAME ,age ,deptid ) VALUES ((START+i) ,rand_string(6) ,
rand_num(30,50),rand_num(1,10000));
UNTIL i = max_num
END REPEAT;
COMMIT;
END$$
# 删除
# DELIMITER ;
# drop PROCEDURE insert_emp;

1.4.2 创建往 dept 表中插入数据的存储过程

# 执行存储过程,往 dept 表添加随机数据
DELIMITER $$
CREATE PROCEDURE `insert_dept`( max_num INT )
BEGIN
DECLARE i INT DEFAULT 0;
SET autocommit = 0;
REPEAT
SET i = i + 1;
INSERT INTO dept ( deptname,address,ceo ) VALUES (rand_string(8),rand_string(10),rand_num(1,500000));
UNTIL i = max_num
END REPEAT;
COMMIT;
END$$

1.5 调用存储过程

1.5.1 添加数据到部门表

# 执行存储过程,往 dept 表添加 1 万条数据
DELIMITER ;
CALL insert_dept(10000);

1.5.2 添加数据到员工表

# 执行存储过程,往 emp 表添加 50 万条数据
DELIMITER ;
CALL insert_emp(100000,500000);

1.6 批量删除某个表上的所有索引

1.6.1 删除索引的存储过程

DELIMITER $$
CREATE PROCEDURE `proc_drop_index`(dbname VARCHAR(200),tablename VARCHAR(200))
BEGIN
DECLARE done INT DEFAULT 0;
DECLARE ct INT DEFAULT 0;
DECLARE _index VARCHAR(200) DEFAULT '';
DECLARE _cur CURSOR FOR
SELECT
index_name
FROM information_schema.STATISTICS
WHERE
table_schema=dbname AND table_name=tablename AND seq_in_index=1 AND
index_name <>'PRIMARY' ;
DECLARE CONTINUE HANDLER FOR NOT FOUND set done=2 ;
OPEN _cur;
FETCH
_cur INTO _index;
WHILE _index<>'' DO
SET @str = CONCAT("drop index ",_index," on ",tablename );
PREPARE sql_str FROM @str ;
EXECUTE sql_str;
DEALLOCATE PREPARE sql_str;
SET _index='';
FETCH
_cur INTO _index;
END WHILE;
CLOSE _cur;
END$$

1.6.2 执行存储过程

调用: CALL proc_drop_index("dbname","tablename");

8 章 单表使用索引常见的索引失效

1. 全值匹配我最爱

1.1 有以下 SQL 语句

EXPLAIN SELECT SQL_NO_CACHE * FROM emp WHERE emp.age=30
EXPLAIN SELECT SQL_NO_CACHE * FROM emp WHERE emp.age=30 and deptid=4
EXPLAIN SELECT SQL_NO_CACHE * FROM emp WHERE emp.age=30 and deptid=4 AND emp.name = 'abcd

1.2 建立索引

CREATE INDEX idx_age_deptid_name ON emp(age,deptid,NAME);

 结论:全职匹配我最爱指的是,查询的字段按照顺序在索引中都可以匹配到!

SQL 中查询字段的顺序,跟使用索引中字段的顺序,没有关系。优化器会在不影响 SQL 执行结果的前提下,给你自动地优化。

 2. 最佳左前缀法则

查询字段与索引字段顺序的不同会导致,索引无法充分使用,甚至索引失效!
原因:使用复合索引,需要遵循最佳左前缀法则,即如果索引了多列,要遵守最左前缀法则。指的是查询从索引的 最左前列开始并且不跳过索引中的列
结论:过滤条件要使用索引必须按照索引建立时的顺序,依次满足,一旦跳过某个字段,索引后面的字段都无 法被使用。

3. 不要在索引列上做任何计算

不在索引列上做任何操作(计算、函数、(自动 or 手动)类型转换),会导致索引失效而转向全表扫描。 

3.1 在查询列上使用了函数

EXPLAIN SELECT SQL_NO_CACHE * FROM emp WHERE age=30;
EXPLAIN SELECT SQL_NO_CACHE * FROM emp WHERE LEFT(age,3)=30;

 结论:等号左边无计算!

3.2 在查询列上做了转换

create index idx_name on emp(name);
explain select sql_no_cache * from emp where name='30000';
explain select sql_no_cache * from emp where name=30000;
字符串不加单引号,则会在 name 列上做一次转换!

结论:等号右边无转换! 

4. 索引列上不能有范围查询

explain SELECT SQL_NO_CACHE * FROM emp WHERE emp.age=30 and deptid=5 AND emp.name = 'abcd';
explain SELECT SQL_NO_CACHE * FROM emp WHERE emp.age=30 and deptid<=5 AND emp.name = 'abcd';

 建议:将可能做范围查询的字段的索引顺序放在最后

5. 尽量使用覆盖索引

即查询列和索引列一直,不要写 select *!
explain SELECT SQL_NO_CACHE * FROM emp WHERE emp.age=30 and deptId=4 and name='XamgXt';
explain SELECT SQL_NO_CACHE age,deptId,name FROM emp WHERE emp.age=30 and deptId=4 and name='XamgXt';

 6. 使用不等于(!= 或者<>)的时候

mysql 在使用不等于 (!= 或者 <>) 时,有时会无法使用索引会导致全表扫描。

7. 字段的 is not null is null 

当字段允许为 Null 的条件下:

 is not null 用不到索引,is null 可以用到索引。

 8. like 的前后模糊匹配

前缀不能出现模糊匹配! 

9. 减少使用 or

使用 union all 或者 union 来替代:

10. 练习

假设 index(a,b,c)
Where 语句
索引是否被使用
where a = 3
Y, 使用到 a
where a = 3 and b = 5
Y, 使用到 a b
where a = 3 and b = 5 and c = 4
Y, 使用到 a,b,c
where b = 3 或者 where b = 3 and c = 4 或者
where c = 4
N
where a = 3 and c = 5
使用到 a , 但是 c 不可以, b 中间断了
where a = 3 and b > 4 and c = 5
使用到 a b c 不能用在范围之后, b 断了
where a is null and b is not null
is null 支持索引 但是 is not null 不支持 ,
a 可以使用索引 , 但是 b 不可以使用
where a <> 3
不能使用索引
where   abs(a) =3
不能使用 索引
where a = 3 and b like 'kk%' and c = 4
Y, 使用到 a,b,c
where a = 3 and b like '%kk' and c = 4
Y, 只用到 a
where a = 3 and b like '%kk%' and c = 4
Y, 只用到 a
where a = 3 and b like 'k%kk%' and c = 4
Y, 使用到 a,b,c

11. 口诀

全职匹配我最爱,最左前缀要遵守;
带头大哥不能死,中间兄弟不能断;
索引列上少计算,范围之后全失效;
LIKE 百分写最右,覆盖索引不写 *
不等空值还有 OR ,索引影响要注意;
VAR 引号不可丢, SQL 优化有诀窍。

9 章 关联查询优化

1. 建表语句

CREATE TABLE IF NOT EXISTS `class` (
`id` INT(10) UNSIGNED NOT NULL AUTO_INCREMENT,
`card` INT(10) UNSIGNED NOT NULL,
PRIMARY KEY (`id`)
);
CREATE TABLE IF NOT EXISTS `book` (
`bookid` INT(10) UNSIGNED NOT NULL AUTO_INCREMENT,
`card` INT(10) UNSIGNED NOT NULL,
PRIMARY KEY (`bookid`)
);
INSERT INTO class(card) VALUES(FLOOR(1 + (RAND() * 20)));
INSERT INTO class(card) VALUES(FLOOR(1 + (RAND() * 20)));
INSERT INTO class(card) VALUES(FLOOR(1 + (RAND() * 20)));
INSERT INTO class(card) VALUES(FLOOR(1 + (RAND() * 20)));
INSERT INTO class(card) VALUES(FLOOR(1 + (RAND() * 20)));
INSERT INTO class(card) VALUES(FLOOR(1 + (RAND() * 20)));
INSERT INTO class(card) VALUES(FLOOR(1 + (RAND() * 20)));
INSERT INTO class(card) VALUES(FLOOR(1 + (RAND() * 20)));
INSERT INTO class(card) VALUES(FLOOR(1 + (RAND() * 20)));
INSERT INTO class(card) VALUES(FLOOR(1 + (RAND() * 20)));
INSERT INTO class(card) VALUES(FLOOR(1 + (RAND() * 20)));
INSERT INTO class(card) VALUES(FLOOR(1 + (RAND() * 20)));
INSERT INTO class(card) VALUES(FLOOR(1 + (RAND() * 20)));
INSERT INTO class(card) VALUES(FLOOR(1 + (RAND() * 20)));
INSERT INTO class(card) VALUES(FLOOR(1 + (RAND() * 20)));
INSERT INTO class(card) VALUES(FLOOR(1 + (RAND() * 20)));
INSERT INTO class(card) VALUES(FLOOR(1 + (RAND() * 20)));
INSERT INTO class(card) VALUES(FLOOR(1 + (RAND() * 20)));
INSERT INTO class(card) VALUES(FLOOR(1 + (RAND() * 20)));
INSERT INTO class(card) VALUES(FLOOR(1 + (RAND() * 20)));
INSERT INTO book(card) VALUES(FLOOR(1 + (RAND() * 20)));

INSERT INTO book(card) VALUES(FLOOR(1 + (RAND() * 20)));
INSERT INTO book(card) VALUES(FLOOR(1 + (RAND() * 20)));
INSERT INTO book(card) VALUES(FLOOR(1 + (RAND() * 20)));
INSERT INTO book(card) VALUES(FLOOR(1 + (RAND() * 20)));
INSERT INTO book(card) VALUES(FLOOR(1 + (RAND() * 20)));
INSERT INTO book(card) VALUES(FLOOR(1 + (RAND() * 20)));
INSERT INTO book(card) VALUES(FLOOR(1 + (RAND() * 20)));
INSERT INTO book(card) VALUES(FLOOR(1 + (RAND() * 20)));
INSERT INTO book(card) VALUES(FLOOR(1 + (RAND() * 20)));
INSERT INTO book(card) VALUES(FLOOR(1 + (RAND() * 20)));
INSERT INTO book(card) VALUES(FLOOR(1 + (RAND() * 20)));
INSERT INTO book(card) VALUES(FLOOR(1 + (RAND() * 20)));
INSERT INTO book(card) VALUES(FLOOR(1 + (RAND() * 20)));
INSERT INTO book(card) VALUES(FLOOR(1 + (RAND() * 20)));
INSERT INTO book(card) VALUES(FLOOR(1 + (RAND() * 20)));
INSERT INTO book(card) VALUES(FLOOR(1 + (RAND() * 20)));
INSERT INTO book(card) VALUES(FLOOR(1 + (RAND() * 20)));
INSERT INTO book(card) VALUES(FLOOR(1 + (RAND() * 20)));
INSERT INTO book(card) VALUES(FLOOR(1 + (RAND() * 20)));

2. 案例

2.1 left join

EXPLAIN SELECT * FROM class LEFT JOIN book ON class.card = book.card;

②如何优化?在哪个表上建立索引?
ALTER TABLE `book` ADD INDEX idx_card( `card`);

③删除 book 表的索引: drop index idx_card on book;
class 表上建立索引: alter table class add index idx_card(card);

结论:
①在优化关联查询时,只有在被驱动表上建立索引才有效!
left join 时,左侧的为驱动表,右侧为被驱动表!

 2.2 inner join

EXPLAIN SELECT * FROM book inner join class on class.card=book.card;

②两个查询字段调换顺序,发现结果也是一样的!  

③在 book 表中,删除 9 条记录 

④结论: inner join 时, mysql 会自己帮你把小结果集的表选为驱动表。
straight_join: 效果和 inner join 一样,但是会强制将左侧作为驱动表!

 2.3 四个关联查询案例分析

EXPLAIN SELECT ed.name ' 人物 ',c.name ' 掌门 ' FROM
(SELECT e.name,d.ceo from t_emp e LEFT JOIN t_dept d on e.deptid=d.id) ed
LEFT JOIN t_emp c on ed.ceo= c.id;

EXPLAIN SELECT e.name ' 人物 ',tmp.name ' 掌门 '
FROM t_emp e LEFT JOIN (SELECT d.id did,e.name FROM t_dept d LEFT JOIN t_emp e ON d.ceo=e.id)tmp
ON e.deptId=tmp.did;

上述两个案例,第一个查询效率较高,且有优化的余地。第二个案例中,子查询作为被驱动表,由于子查询是虚表, 无法建立索引,因此不能优化。
结论
子查询尽量不要放在被驱动表,有可能使用不到索引;
left join时,尽量让实体表作为被驱动表。
EXPLAIN SELECT e1.name ' 人物 ',e2.name ' 掌门 '
FROM t_emp e1
LEFT JOIN t_dept d on e1.deptid = d.id
LEFT JOIN t_emp e2 on d.ceo = e2.id ;

Explain SELECT e2.name ' 人物 ',
(SELECT e1.name FROM t_emp e1 where e1.id= d.ceo) ' 掌门 '
from t_emp e2 LEFT JOIN t_dept d on e2.deptid=d.id;

 结论:能够直接多表关联的尽量直接关联,不用子查询!

 10 章 子查询优化

1. 案例 

取所有不为掌门人的员工,按年龄分组!

select age as '年龄', count(*) as '人数' from t_emp where id not in

(select ceo from t_dept where ceo is not null) group by age;

如何优化?
①解决 dept 表的全表扫描,建立 ceo 字段的索引:

此时,再次查询: 

②进一步优化,替换 not in
上述 SQL 可以替换为:
select age as ' 年龄 ',count(*) as ' 人数 ' from emp e left join dept d on e.id=d.ceo where d.id is null group by age;

 结论: 在范围判断时,尽量不要使用 not in not exists,使用 left join on xxx is null 代替。

11 章 排序分组优化

where 条件和 on 的判断这些过滤条件,作为优先优化的部门,是要被先考虑的!其次,如果有分组和排序,那么也要考虑 grouo by order by

1. 无过滤不索引

create index idx_age_deptid_name on emp (age,deptid,name);
explain select * from emp where age=40 order by deptid;
explain select * from emp order by age,deptid;
explain select * from emp order by age,deptid limit 10;

 

using filesort 说明进行了手工排序!原因在于没有 where 作为过滤条件! 

 结论: 无过滤,不索引。wherelimt 都相当于一种过滤条件,所以才能使用上索引!

2. 顺序错,必排序

explain select * from emp where age=45 order by deptid,name;

explain select * from emp where age=45 order by deptid,empno; 

empno 字段并没有建立索引,因此也无法用到索引,此字段需要排序!
explain select * from emp where age=45 order by name,deptid;

where 两侧列的顺序可以变换,效果相同,但是 order by 列的顺序不能随便变换!
explain select * from emp where deptid=45 order by age;

deptid 作为过滤条件的字段,无法使用索引,因此排序没法用上索引 

3. 方向反,必排序

explain select * from emp where age=45 order by deptid desc, name desc ;
如果可以用上索引的字段都使用正序或者逆序,实际上是没有任何影响的,无非将结果集调换顺序。
explain select * from emp where age=45 order by deptid asc, name desc ;

 

如果排序的字段,顺序有差异,就需要将差异的部分,进行一次倒置顺序,因此还是需要手动排序的!

4. 索引的选择 

①首先,清除 emp 上面的所有索引,只保留主键索引!

drop index idx_age_deptid_name on emp;

②查询:年龄为 30 岁的,且员工编号小于 101000 的用户,按用户名称排序
explain SELECT SQL_NO_CACHE * FROM emp WHERE age =30 AND empno <101000 ORDER BY NAME ;

③全表扫描肯定是不被允许的,因此我们要考虑优化。
思路:首先需要让 where 的过滤条件,用上索引;查询中,age.empno 是查询的过滤条件,而 name 则是排序的字段,因此我们来创建一个此三个字段的复合索引:
create index idx_age_empno_name on emp(age,empno,name);
再次查询,发现 using filesort 依然存在。
原因: empno 是范围查询,因此导致了索引失效,所以 name 字段无法使用索引排序。 所以,三个字段的符合索引,没有意义,因为 empno name 字段只能选择其一!
④解决: 鱼与熊掌不可兼得,因此,要么选择 empno, 要么选择 name
drop index idx_age_empno_name on emp;
create index idx_age_name on emp(age,name);
create index idx_age_empno on emp(age,empno);
两个索引同时存在, mysql 会选择哪个?

explain SELECT SQL_NO_CACHE * FROM emp use index(idx_age_name) WHERE age =30 AND empno <101000 ORDER BY NAME ;

原因:所有的排序都是在条件过滤之后才执行的,所以如果条件过滤了大部分数据的话,几百几千条数据进行排序其实并不是很消耗性能,即使索引优化了排序但实际提升性能很有限。 相对的 empno<101000 这个条件如果没有用到索引的话,要对几万条的数据进行扫描,这是非常消耗性能的,使用 empno 字段的范围查询,过滤性更好(empno 从 100000 开始)!
结论: 当范围条件和 group by 或者 order by 的字段出现二选一时 ,优先观察条件字段的过滤数量,如果过滤的数据足够多,而需要排序的数据并不多时,优先把索引放在范围字段上。反之,亦然。

5. using filesort

5.1 mysql 的排序算法

①双路排序
MySQL 4.1 之前是使用双路排序 , 字面意思就是两次扫描磁盘,最终得到数据,读取行指针和 orderby 列,对他们进行排序,然后扫描已经排序好的列表,按照列表中的值重新从列表中读取对应的数据输出。
从磁盘取排序字段,在 buffer 进行排序,再从磁盘取其他字段。
简单来说,取一批数据,要对磁盘进行了两次扫描,众所周知, I\O 是很耗时的,所以在 mysql4.1 之后,出现了第二种改进的算法,就是单路排序。
②单路排序
从磁盘读取查询需要的所有列,按照 order by 列在 buffer 对它们进行排序,然后扫描排序后的列表进行输出,它的效率更快一些,避免了第二次读取数据。并且把随机 IO 变成了顺序 IO, 但是它会使用更多的空间,因为它把每一行都保存在内存中了。
③单路排序的问题
由于单路是后出的,总体而言好过双路。但是存在以下问题:
sort_buffer 中,方法 B 比方法 A 要多占用很多空间,因为方法 B 是把所有字段都取出 , 所以有可能取出的数据的总大小超出了 sort_buffer 的容量,导致每次只能取 sort_buffer 容量大小的数据,进行排序(创建 tmp 文件,多路合并),排完再取取 sort_buffer 容量大小,再排……从而多次 I/O
结论: 本来想省一次 I/O 操作,反而导致了大量的 I/O 操作,反而得不偿失。

5.2 如何优化

①增大 sort_butter_size 参数的设置
不管用哪种算法,提高这个参数都会提高效率,当然,要根据系统的能力去提高,因为这个参数是针对每个进程的 1M-8M 之间调整。
②增大 max_length_for_sort_data 参数的设置
mysql 使用单路排序的前提是排序的字段大小要小于 max_length_for_sort_data。
提高这个参数,会增加用改进算法的概率。但是如果设的太高,数据总容量超出 sort_buffer_size 的概率就增大,
明显症状是高的磁盘 I/O 活动和低的处理器使用率。(
1024-8192 之间调整)。
③减少 select 后面的查询的字段。
Query 的字段大小总和小于 max_length_for_sort_data 而且排序字段不是 TEXT|BLOB 类型时,会用改进后的
算法——单路排序, 否则用老算法——多路排序。
两种算法的数据都有可能超出 sort_buffer 的容量,超出之后,会创建 tmp 文件进行合并排序,导致多次 I/O
但是用单路排序算法的风险会更大一些 , 所以要提高 sort_buffer_size

6. 使用覆盖索引

覆盖索引: SQL 只需要通过索引就可以返回查询所需要的数据,而不必通过二级索引查到主键之后再去查询数据。

 7. group by

group by 使用索引的原则几乎跟 order by 一致 ,唯一区别是 groupby 即使没有过滤条件用到索引,也可以直接使用索引。

 12 章 练习

1. 案例一

列出自己的掌门比自己年龄小的人员
select e1.name empname,e1.age empage,e2.name ceoname,e2.age ceoage
from t_emp e1 inner join t_dept d on e1.deptid=d.id
inner join t_emp e2 on d.ceo=e2.id
where e1.age>e2.age;

更换为大表,进行分析: 

explain select e1.name empname,e1.age empage,e2.name ceoname,e2.age ceoage from emp e1 inner join dept d on
e1.deptid=d.id
inner join emp e2 on d.ceo=e2.id
where e1.age>e2.age;

两次 inner join 的被驱动表都已经用上了索引。 

2. 案例二

列出所有年龄低于自己门派平均年龄的人员
思路: 先取门派的平均年龄,再跟自己的年龄做对比!
select e1.name from t_emp e1
inner join
(select deptid,AVG(age) avgage from t_emp

group by deptid) tmp
on e1.deptid=tmp.deptid
where e1.age<tmp.avgage;

更换为大表: 

explain select e1.name from emp e1
inner join
(select deptid,AVG(age) avgage from emp
group by deptid) tmp
on e1.deptid=tmp.deptid
where e1.age<tmp.avgage;
在没有索引的前提下:
如何优化:
①首先在子查询中,需要根据 deptid groupby 操作,因此,需要在 deptid 上面建立索引;
②因为是 inner join, 因此会自动将小表作为驱动表,也就是说,分组后的 tmp 是驱动表,而 e1 是被驱动表;
③而在 e1 中,需要查询 deptid age 两个字段,因此这两个字段也需要建立索引
结果:创建 deptid age 的符合索引 :
create index idx_deptid_age on emp(deptid,age);

3. 案例三 

列出至少有 2 个年龄大于 40 岁的成员的门派
思路: 先查询大于 40 岁的成员,然后按照门派分组,然后再判断至少有 2 个的门派!
select d.deptName,count(*)
from t_emp e inner join t_dept d
on e.deptid=d.id
where e.age>40
group by d.id,d.deptName
having count(*)>=2

大表优化:

explain select d.deptName,count(*)
from emp e inner join dept d
on e.deptid=d.id
where e.age>40
group by d.id,d.deptName
having count(*)>=2

优化:
①两表关联,我们可以考虑将小表作为驱动表。
group by 的字段 id,deptName 还可以建立索引 : create index idx_id_deptName on dept(id,deptName);
③被驱动表的 deptid 作为关联字段,可以建立索引: create index idx_deptid on emp(deptid);
create index idx_id_deptname on dept(id,deptName);

 

4. 案例四 

至少有 2 位非掌门人成员的门派
select d2.deptName from t_emp e inner join t_dept d2 on e.deptid=d2.id
left join t_dept d on e.id=d.ceo
where d.id is null and e.deptid is not null
group by d2.deptName,d2.id
having count(*)>=2;

切换大表:
explain select d2.deptName from emp e inner join dept d2 on e.deptid=d2.id
left join dept d on e.id=d.ceo
where d.id is null and e.deptid is not null
group by d2.deptName,d2.id
having count(*)>=2;
没有索引的情况下:
优化分析: 三个表关联,然后做 group by 分组!
group by 的字段,可以加上索引: create index idx_deptname_id on dept(deptName,id);
②可以将部门表作为驱动表
③第一次 join 时, e 表作为被驱动表,可以将 deptid 设置索引: create index idx_deptid on emp(deptid);
④最有一次 join 中,使用了 dept 表作为被驱动表,查询 ceo 字段,因此可以在 ceo 上面建立索引
create index idx_ceo on dept(ceo);

 

5. 案例五 

列出全部人员,并增加一列备注“是否为掌门”,如果是掌门人显示是,不是掌门人显示否
select e.name,case when d.id is null then ' ' else ' ' end ' 是否为掌门 ' from t_emp e
left join t_dept d
on e.id=d.ceo;

大表关联:

explain select e.name,case when d.id is null then ' ' else ' ' end ' 是否为掌门 ' from emp e
left join dept d
on e.id=d.ceo;

 优化:在 d 表的 ceo 字段建立索引即可!

6. 案例六

列出全部门派,并增加一列备注“老鸟 or 菜鸟”,若门派的平均值年龄 >40 显示“老鸟”,否则显示“菜鸟”
思路: 先从 emp 表求出,各门派的平均年龄,分组,然后在关联 dept 表,使用 if 函数进行判断!
select d.deptName,if(avg(age)>40,' 老鸟 ',' 菜鸟 ') from t_emp e inner join t_dept d
on d.id=e.deptid group by d.deptName,d.id

 切换大表:

explain select d.deptName,if(avg(age)>40,' 老鸟 ',' 菜鸟 ') from dept d inner join emp e
on d.id=e.deptid
group by d.deptName,d.id

优化:
①使用 dept 作为驱动表
②在 dept 上建立 deptName id 的索引: create index idx_deptName_id on dept(deptName,id);
③在 emp 上建立 deptid 字段的索引: create index index_deptid on emp(deptid);

 

7. 案例七

显示每个门派年龄最大的人
思路:先查询 emp 表,求出每个门派年龄最大的人,并按照 deptid 分组;然后再次关联 emp 表,关联其他的信息!
select * from t_emp e
inner join
(select deptid,max(age) maxage
from t_emp
group by deptid) tmp
on tmp.deptid=e.deptid and tmp.maxage=e.age;

 大表优化:

explain select * from emp e
inner join
(select deptid,max(age) maxage
from emp
group by deptid) tmp
on tmp.deptid=e.deptid and tmp.maxage=e.age;
优化前:

优化思路:
①子查询中, emp 表根据 deptid 进行分组,因此可以建立 deptid 字段的索引;
inner join 查询中,关联了 age deptid ,因此可以在 deptid,age 字段建立索引
create index idx_deptid_age on emp(deptid,age);

 

 13 章 截取查询分析

1. 慢查询日志

1.1 是什么

(1) MySQL 的慢查询日志是 MySQL 提供的一种日志记录,它用来记录在 MySQL 中响应时间超过阀值的语句,具体指运行时间超过long_query_time 值的 SQL ,则会被记录到慢查询日志中。
(2)具体指运行时间超过 long_query_time 值的 SQL ,则会被记录到慢查询日志中。 long_query_time 的默认值为10,意思是运行 10 秒以上的语句。
(3)由他来查看哪些 SQL 超出了我们的最大忍耐时间值,比如一条 sql 执行超过 5 秒钟,我们就算慢 SQL ,希望能收集超过5 秒的 sql ,结合之前 explain 进行全面分析。

1.2 怎么用

默认情况下, MySQL 数据库没有开启慢查询日志 ,需要我们手动来设置这个参数。
当然,如果不是调优需要的话,一般不建议启动该参数 ,因为开启慢查询日志会或多或少带来一定的性能影响。 慢查询日志支持将日志记录写入文件。
(1) 开启设置
SQL 语句
描述
备注
SHOW VARIABLES LIKE '%slow_query_log%';
查看慢查询日志是否开启
默认情况下 slow_query_log 的值为 OFF
表示慢查询日志是禁用的
set global slow_query_log=1;
开启慢查询日志
SHOW VARIABLES LIKE 'long_query_time%';
查看慢查询设定阈值
单位秒
set long_query_time=1
设定慢查询阈值
单位秒
(2) 如永久生效需要修改配置文件 my.cnf [mysqld] 下配置
[mysqld]
slow_query_log=1
slow_query_log_file=/var/lib/mysql/atguigu-slow.log
long_query_time=3
log_output=FILE
(3) 运行查询时间长的 sql ,打开慢查询日志查看

1.2 日志分析工具 mysqldumpslow

(1) 查看mysqldumpslow 的帮助信息
命令: [root@cocoon ~]# mysqldumpslow --help

 (2) 查看mysqldumpslow的帮助信息

得到返回记录集最多的 10 SQL
mysqldumpslow -s r -t 10 /var/lib/mysql/atguigu-slow.log
得到访问次数最多的 10 SQL
mysqldumpslow -s c -t 10 /var/lib/mysql/atguigu-slow.log
得到按照时间排序的前 10 条里面含有左连接的查询语句
mysqldumpslow -s t -t 10 -g "left join" /var/lib/mysql/atguigu-slow.log
另外建议在使用这些命令时结合 | more 使用 ,否则有可能出现爆屏情况
mysqldumpslow -s r -t 10 /var/lib/mysql/atguigu-slow.log | more

2. SHOW PROCESSLIST

1.1 是什么

查询 mysql 进程列表,可以杀掉故障进程

1.2 怎么用

 14 章 工具和技巧拾遗

1.1 是什么

将一段查询 sql 封装为一个虚拟的表。
这个虚拟表只保存了 sql 逻辑,不会保存任何查询结果。

1.2 作用

(1)封装复杂 sql 语句,提高复用性
(2)逻辑放在数据库上面,更新不需要发布程序,面对频繁的需求变更更灵活

15 章 主从复制

1.1 复制的基本原理

(1) slave 会从 master 读取 binlog 来进行数据同步
(2)三步骤 + 原理图

MySQL 复制过程分成三步:
master 将改变记录到二进制日志(binary log)。这些记录过程叫做二进制日志事件,
binary log events
slave master binary log events 拷贝到它的中继日志(relay log);
slave 重做中继日志中的事件,将改变应用到自己的数据库中。 MySQL 复制是异步的且串行化的

1.2 复制的基本原则

(1)每个 slave 只有一个 master
(2)每个 slave 只能有一个唯一的服务器 ID
(3)每个 master 可以有多个 salve

1.3 复制的最大问题

因为发生多次 IO ,存在延时问题

 1.4 一主一从常见配置

(1) mysql 版本一致且后台以服务运行
(2) 主从都配置在[mysqld] 结点下,都是小写
          主机修改 my.ini 配置文件

 

主服务器唯一 ID

server-id=1
启用二进制日志 JAVAEE 课程系列
log-bin= 自己本地的路径 /data/mysqlbin
log-bin=D:/devSoft/MySQLServer5.5/data/mysqlbin
设置不要复制的数据库
binlog-ignore-db=mysql
设置需要复制的数据库
binlog-do-db= 需要复制的主数据库名字
设置 logbin 格式
binlog_format=STATEMENT (默认)

mysql 主从复制起始时,从机不继承主机数据 

(3) logbin 格式
binlog_format=STATEMENT (默认)
binlog_format=ROW
binlog_format= MIXED

 

(4) 从机配置文件修改 my.cnf [mysqld] 栏位下
# 从机服务 id
server-id = 2
# 注意 my.cnf 中有 server-id = 1
# 设置中继日志
relay-log=mysql-relay

(5) 因修改过配置文件,请主机+从机都重启后台 mysql 服务

(6) 主机从机都关闭防火墙、安全工具(腾讯管家等)
(7) 在 Windows 主机上建立帐户并授权 slave
# 创建用户,并授权
GRANT REPLICATION SLAVE ON *.* TO ' 备份账号 '@' 从机器数据库 IP' IDENTIFIED BY '123456';

(8) 查询 master 的状态,并记录下 File Position 的值

# 查询 master 的状态
show master status;

 执行完此步骤后不要再操作主服务器 MYSQL,防止主服务器状态值变化

(9) 在 Linux 从机上配置需要复制的主机
# 查询 master 的状态
CHANGE MASTER TO MASTER_HOST=' 主机 IP',MASTER_USER=' 创建用户名 ',MASTER_PASSWORD=' 创建的密码 ',
MASTER_LOG_FILE='File 名字 ',MASTER_LOG_POS=Position 数字 ;

 (10) 启动从服务器复制功能

start slave;
show slave status\G;

 下面两个参数都是 Yes,则说明主从配置成功!

Slave_IO_Running: Yes
Slave_SQL_Running: Yes

(11) 主机新建库、新建表、insert 记录,从机复制

(12) 如何停止从服务复制功能

stop slave; 

16 MYCAT 

1.1 是什么 

数据库中间件,前身是阿里的 cobar 

1.2 做什么 

  1. 读写分离
  2. 数据分片:

        垂直拆分、水平拆分

        垂直+水平拆分

3.多数据源整合 

1.3 MYCAT 原理

“拦截”:Mycat 的原理中最重要的一个动词是“拦截”,它拦截了用户发送过来的 SQL 语句,首先对 SQL 语句做了一些特定的分析:如分片分析、路由分析、读写分离分析、缓存分析等,然后将此 SQL 发往后端的真实数据库,并将返回的结果做适当的处理,最终再返回给用户。

 这种方式把数据库的分布式从代码中解耦出来,程序员察觉不出来后台使用 mycat 还是 mysql。

1.4 安装启动 

  1. 解压缩文件拷贝到 linux 下 /usr/local/
  2. 三个配置文件

              schema.xml 定义逻辑库,表、分片节点等内容 rule.xml 定义分片规则

              server.xml 定义用户以及系统相关变量,如端口等.

     3.启动前先修改 schema.xml

  1. <?xml version="1.0"?>
  2. <!DOCTYPE mycat:schema SYSTEM "schema.dtd">
  3. <mycat:schema xmlns:mycat="http://io.mycat/">
  4. <!--逻辑库 name 名称, checkSQLschema sqlMaxLimit 末尾是否要加 limit xxx-->
  5. <schema name="TESTDB" checkSQLschema="false" sqlMaxLimit="100" dataNode="dn1"> </schema>
  6. <!--逻辑库 name 名称, dataHost 引用的哪个 dataHost database:对应 mysql 的 database-->
  7. <dataNode name="dn1" dataHost="localhost1" database="db1" />
  8. <dataHost name="localhost1" maxCon="1000" minCon="10" balance="0"
  9. writeType="0" dbType="mysql" dbDriver="native" switchType="1"
  10. slaveThreshold="100">
  11. <heartbeat>select user()</heartbeat>
  12. <!-- can have multi write hosts -->
  13. <writeHost host="hostM1" url="localhost:3306" user="root"
  14. password="123456">
  15. </writeHost>
  16. </dataHost>
  17. </mycat:schema>

        4. 再修改 server.xml

  1. <user name="root">
  2. <property name="password">654321</property>
  3. <property name="schemas">TESTDB</property>
  4. </user>

       5. 启动程序

控制台启动 :去 mycat/bin 目录下 mycat console 后台启动 :去 mycat/bin 目录下 mycat start

        6.启动时可能出现报错

域名解析失败

vim 修改 /etc/hosts 文件,127.0.0.1 后面增加你的机器名 

 修改后重新启动网络服务

 

        7. 后台管理窗口登录 

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/我家小花儿/article/detail/469421
推荐阅读
相关标签
  

闽ICP备14008679号