当前位置:   article > 正文

循序渐进丨MogDB 查看当前/历史执行计划

dbe_perf.statement_history

一、概述

SQL执行计划是一个节点树,显示 MogDB 执行一条SQL语句时执行的详细步骤。每一个步骤为一个数据库运算符。执行计划对于我们进行SQL调优可以说是必不可少的关键信息。以下总结的是关于如何查看 MogDB 数据库当前、历史执行SQL的执行计划以及定位执行缓慢算子的方法。首先介绍 MogDB 与SQL密切相关的两个特性:ASP和全量SQL&慢查询。

二、ASP

01

特性简介

ASP (Active Session Profile) 活跃会话概要信息,通过采样实例活跃会话的状态信息,低成本复现过去一段时间的系统活动,主要包含会话基本信息、会话事务、语句、等待事件、会话状态(active, idle等)、当前正阻塞在哪个事件上、正在等待哪个锁、被哪个会话阻塞。可以获取以下信息:

  1. 最近用户session最耗资源的的事件

  2. 最近比较占资源的session/SQL把资源都消耗在哪些event上

  3. 最近执行时间/执行次数最多的是哪些SQL(进而可以找出表,数据库)

  4. 最近最耗资源的用户的信息

  5. 最近阻塞其他session最多的session

02

工作机制

step1:周期采集信息

MogDB 启动后会启动一个后台worker采样线程,为避免浪费资源,该采样线程不会时刻采样,而是每隔一个采样周期对 MogDB 进行采样,收集 MogDB 当时的运行快照保存到内存中,查询视图dbe_perf.local_active_session可以查询到实时的采样信息,该采样周期由guc参数asp_sample_interval控制,默认采样周期为1s。只有语句执行时间大于采样时间(1s),才会被采样线程收集到运行信息。

step2:信息持久化

MogDB 每在内存中采样100000行(由guc参数asp_sample_num控制)会将内存中的采样数据刷新到GS_ASP表中以供历史查询。

03

相关视图

1. dbe_perf.local_active_session

LOCAL_ACTIVE_SESSION视图显示本节点上的ACTIVE SESSION PROFILE内存中的样本。

2. pg_catalog.gs_asp

GS_ASP显示被持久化的ACTIVE SESSION PROFILE样本,该表只在系统库(postgres)下查询,在用户库下查询无数据。

04

相关重要参数

1. enable_asp

参数说明:是否开启活跃会话信息active session profile。重新加载参数后,立即生效。

可选项:

  1. enable_asp=on --开启

  2. enable_asp=off --关闭

2. asp_sample_interval

参数说明:信息采样的间隔。重新加载参数后,立即生效。

  • asp_sample_interval=1s --默认1s

3. asp_sample_num

参数说明:LOCAL_ACTIVE_SESSION视图最大的样本个(行)数,超过该数值,数据会刷新到GS_ASP表。数据库重启后生效。

  • asp_sample_interval=100000 --默认100000

4. asp_sample_rate=10

参数说明:指定每多少个内存asp sample条目转存到磁盘上。在一些特定的场景下,比如有些定期任务总是在整点运行,可能导致一直采集不到,可以考虑把这个值设为7或者11,这样,可以让采样更为多样化。

三、Full SQL TRACE & Slow SQL

01

特性简介

  • MogDB 会记录全量SQL信息,分为L0, L1,L2三个等级,可以获取以下信息:

  1. 可以获取实例信息,客户端信息,语句概要信息,执行信息,行活动信息,Cache/IO,时间模型,网络统计信息,锁概要信息,锁详细信息等。

  2. 通过全量SQL,可以得到整个系统所有语句的执行流水以 及他们的详细性能数据(持久化的)。

  3. 除Statement视图提供的能力外,还额外提供了详细加放锁信息,可以诊断到单语句级别的性能波动。

  • 达到慢查询阈值(log_min_duration_statement)设置的语句性能信息,性能要素和全量SQL一致。

02

相关视图

1. dbe_perf.statement

获得当前节点的执行语句(归一化SQL)的信息。查询视图必须具有sysadmin权限或者monitor admin权限。主要目的是保留数据库启动后,运行的SQL的状态记录。

需要打开enable_resource_track参数:允许运行时候的资源使用追踪。

2. dbe_perf.statement_complex_runtime

视图显示当前用户在数据库主节点上正在执行的作业的负载管理记录。

我们可以利用此试图来查看当前执行sql的执行计划、语句执行状态等详细信息来排查sql性能问题。

3. dbe_perf.statement_history

获得当前节点的执行语句的信息。查询视图必须具有sysadmin权限或者monitor admin权限。只可在系统库中查询到结果,用户库中无法查询。主要目的是记录数据库运行中产生的sql与其运行信息,保证即便数据库重启,SQL信息也依然可以查询到。

我们可以利用此视图来查询历史sql的的详细运行信息。此视图受log_duration、log_min_duration_statement、track_stmt_stat_level等参数控制。并且需要判断:

以下各个条件为或判定,满足其一即可:

  • 打开了动态语句追踪功能:采用dynamic_func_control追踪STMT。

  • track_stmt_stat_level追踪第一个level为L0或者更高。

  • track_stmt_stat_level追踪第二个level为L0或者更高,且语句运行时间大于log_min_duration_statement设定值,且log_min_duration_statement大于等于0,并且没有打开track_stmt_parameter。

  • 打开track_stmt_parameter,并且时间模式第一个值(消耗的DBTIME)大于0。

03

相关重要参数

1. enable_resource_track

参数说明:是否开启资源实时监控功能。重新加载参数后,立即生效。

可选项:

  1. enable_resource_track=on --开启

  2. enable_resource_track=off --关闭

2. track_stmt_stat_level

参数说明:控制语句执行跟踪的级别。该参数分为两部分,形式为’full sql stat level, slow sql stat level’;

full sql stat level为全量SQL跟踪级别,取值范围为OFF、L0、L1、L2

slow sql stat level为慢SQL的跟踪级别,取值范围为OFF、L0、L1、L2

—若全量SQL跟踪级别值为非OFF时,当前SQL跟踪级别值为全量SQL和慢SQL的较高级别(L2 > L1 > L0)

—L1在L0的基础上记录了执行计划,L2在L1的基础上记录了锁的详细信息,详情见statement_history中的details

  • track_stmt_stat_level=OFF,L0 --默认配置,表示关闭全量sql跟踪,开启L0级别的慢SQL跟踪

  • track_stmt_stat_level=L2,L0 --表示此时SQL跟踪级别都为L2

3. resource_track_cost

参数说明:设置对当前会话的语句进行资源监控的最小执行代价。该参数只有当参数enable_resource_track为on时才有效。

可选项:

  1. resource_track_cost=-1 --不进行资源监控。

  2. resource_track_cost=0 --【0-9】对执行代价大于等于10的语句进行资源监控。

  3. resource_track_cost=10 --【>10】,对执行代价超过该参数值的语句进行资源监控。

4. resource_track_level

设置当前会话的资源监控的等级。该参数只有当参数enable_resource_track为on时才有效该参数按照级别存在三个值,分别是:

none:不开启资源记录功能;

query:开启query级别资源记录功能;

operator:开启query级别和算子级别资源记录功能,

如果需要监控执行计划中每个算子操作,需要将resource_track_level设成operator。

5. log_min_duration_statement

参数说明:当某条语句的持续时间大于或者等于特定的毫秒数时,log_min_duration_statement参数用于控制记录每条完成语句的持续时间。

—设置log_min_duration_statement可以很方便地跟踪需要优化的查询语句。对于使用扩展查询协议的客户端,语法分析、绑定、执行每一步所花时间被独立记录。

可选项:

  1. log_min_duration_statement=1000ms --所有运行时间不短于1000ms的SQL语句都会被记录。

  2. log_min_duration_statement=0 --所有语句都会被记录

  3. log_min_duration_statement=-1 --关闭此功能

6. log_duration

参数说明:控制记录每个已完成SQL语句的执行时间。对使用扩展查询协议的客户端、会记录语法分析、绑定和执行每一步所花费的时间。

—当此参数为on,且log_min_duration_statement大于零,记录所有持续时间,但是仅记录超过阈值的语句。这可用于在高负载情况下搜集统计信息。

可选项:

  1. log_duration=on --默认,开启

  2. log_duration=off --关闭

四、确认参数

根据以上特性相关参数,为了测试直观,修改以下参数至合适值:

  1. enable_asp = on
  2. --开启ASP采样
  3. enable_resource_track = on
  4. --开启资源实时监控
  5. log_duration = on
  6. --开启【记录sql执行时间】功能
  7. log_min_duration_statement = 1000
  8. --1000ms,即1s,执行时长超过该参数,会记录为慢SQL
  9. track_stmt_stat_level = 'L2,L0'
  10. --资源追踪级别为L2
  11. resource_track_cost = 10
  12. --当前会话的语句执行cost需要大于该参数值,才会被记录到相关视图
  13. #其他相关参数可保持默认

五、测试

01

查看当前执行计划

对于查看当前执行计划,我们可以选择使用“explain [sql]”语句的方式来获取其执行计划。但对于哪些耗时长的慢SQL,执行很长时间都不能通过explain analyze分析的语句,而且只有在执行完成后才能看到相关执行计划。这个时候我们可以利用前面介绍的两大特性来帮助我们检测SQL执行过程中的详细情况,并根据相关结果进行下一步调优。

1. 官方示例

详细信息可参考官方文档:SQL运行状态观测(https://docs.mogdb.io/zh/mogdb/v3.0/22-sql-running-status-observation#)。

  • session 1 创建测试表并插入数据

  1. MogDB=# create table test1(id int);
  2. CREATE TABLE
  3. MogDB=# insert into test1 select generate_series(1, 10000000);
  • session 2 通过pg_stat_activity查询到query_id

通过活跃会话视图查询到正在执行sql的query_id(执行完毕的sql是不会记录在该视图)

  1. MogDB=# select query,query_id from pg_stat_activity where query like 'insert into test1 select%';
  2. query | query_id
  3. --------------------------------------------------------+------------------
  4. insert into test1 select generate_series(1, 10000000); | 3940649673950800
  5. (1 row)
  • session 2 查看当前SQL执行计划

根据该query_id从活跃作业管理视图中查询出该语句的带plan_node_id(执行计划树的算子id)的执行计划(该语句执行cost需要大于guc值resource_track_cost才会被记录到该视图中,该guc参数默认值为100000,session级别可更新,所以为了方便测试,可在测试中将该值改成10)。

  1. MogDB=# select query_plan from dbe_perf.statement_complex_runtime where queryid =3940649673950800 ;
  2. query_plan
  3. -----------------------------------------------------------
  4. Coordinator Name: dn_6001 +
  5. 1 | Insert on test1 (cost=0.00..15.01 rows=1000 width=4)+
  6. 2 | -> Result (cost=0.00..5.01 rows=1000 width=0) +
  7. +
  • session 2 查询算子采样详情

根据query_id从采样视图dbe_perf.local_active_session中查询出该语句的采样情况,结合上面查询的执行计划做性能分析。

  1. MogDB=# select plan_node_id, count(plan_node_id) from dbe_perf.local_active_session where query_id =3940649673950800 group by plan_node_id;
  2. plan_node_id | count
  3. --------------+-------
  4. 1 | 39
  5.             2 |     1
  • 有可能上一步查询没有结果,很有可能内存数据到达了上限值(由guc参数asp_sample_num控制),此时需要查询gs_asp表。

select plan_node_id, count(plan_node_id) from dbe_perf.local_active_session where query_id =3940649673950800 group by plan_node_id;
  • 结论

当发现insert into test select generate_series(1, 10000000)存在性能瓶颈,通过以上的步骤定位发现,insert操作在整个SQL语句执行过程中被采样的数值最高( plan_node_id =1 ,count=39),可以对其进行优化。

2. 实际应用

多表关联,对多表中的相同数据进行计数

  • session 1 统计test1和test2中相同数据的个数

  1. MogDB=# select count(*)
  2. MogDB-# from test1 t1,test2 t2
  3. MogDB-# where t1.id = t2.id;
  • session 2 查询执行计划及算子采样详情

  1. MogDB=# select query,query_id,unique_sql_id from pg_stat_activity where query like 'select count(*)%';
  2. query | query_id | unique_sql_id
  3. ------------------------+------------------+---------------
  4. select count(*) +| 3940649673951393 | 4071767743
  5. from test1 t1,test2 t2+| |
  6. where t1.id = t2.id; | |
  7. MogDB=# select query_plan,query,duration from dbe_perf.statement_complex_runtime where queryid = 3940649673951393;
  8. query_plan | query | duration
  9. -------------------------------------------------------------------------------+------------------------+----------
  10. Coordinator Name: dn_6001 +| select count(*) +| 65740
  11. 1 | Aggregate (cost=955172.77..955172.78 rows=1 width=8) +| from test1 t1,test2 t2+|
  12. 2 | -> Hash Join (cost=357141.08..928597.94 rows=10629931 width=0) +| where t1.id = t2.id; |
  13. | Hash Cond: (t2.id = t1.id) +| |
  14. 3 | -> Seq Scan on test2 t2 (cost=0.00..150547.31 rows=10629931 width=4) +| |
  15. 4 | -> Hash (cost=144248.48..144248.48 rows=10000048 width=4) +| |
  16. 5 | -> Seq Scan on test1 t1 (cost=0.00..144248.48 rows=10000048 width=4)+| |
  17. +| |
  18. | |
  19. MogDB=# select plan_node_id, count(plan_node_id) from dbe_perf.local_active_session where query_id =3940649673951393 group by plan_node_id;
  20. plan_node_id | count
  21. --------------+-------
  22. 5 | 44
  23. 3 | 55
  24.             2 |     6
  • 结论:

当发现该多表关联语句执行缓慢、存在性能瓶颈时,按照以上步骤获取执行计划和算子采样信息,可以发现改SQL主要消耗在了对两张表的全表扫,这时建议对test1和test2创建相关索引。

对两个表的id字段都创建索引:

create index test_index1 on test1(id);

create index test_index2 on test2(id);

对比一下创建索引与创建索引之前的SQL执行用时,还是有很大的差距。

  1. MogDB=# select query_plan,query,is_slow_sql,start_time,finish_time
  2. from dbe_perf.statement_history sh
  3. where sh.query like 'select count(*)%' ;
  4. -[ RECORD 1 ]------------------------------------------------------------------------------------------------------------------------------------------------------------
  5. query_plan | Datanode Name: dn_6001
  6. | Aggregate (cost=783458.91..783458.92 rows=1 width=8) (actual time=12565.353..12565.354 rows=1 loops=1)
  7. | -> Merge Join (cost=11.79..758458.91 rows=10000000 width=0) (actual time=0.259..11674.363 rows=10000000 loops=1)
  8. | Merge Cond: (t1.id = t2.id)
  9. | -> Index Only Scan using test_index1 on test1 t1 (cost=0.00..304239.25 rows=10000000 width=4) (actual time=0.116..3775.731 rows=10000000 loops=1)
  10. | -> Index Only Scan using test_index2 on test2 t2 (cost=0.00..304239.25 rows=10000000 width=4) (actual time=0.082..4418.354 rows=10000000 loops=1)
  11. |
  12. |
  13. query | select count(*)
  14. | from test1 t1,test2 t2
  15. | where t1.id = t2.id;
  16. is_slow_sql | t
  17. start_time | 2022-09-10 20:03:39.300469+08
  18. finish_time | 2022-09-10 20:03:51.893721+08
  19. -[ RECORD 2 ]------------------------------------------------------------------------------------------------------------------------------------------------------------
  20. query_plan | Datanode Name: dn_6001
  21. | Aggregate (cost=955172.77..955172.78 rows=1 width=8) (actual time=109007.337..109007.338 rows=1 loops=1)
  22. | -> Hash Join (cost=357141.08..928597.94 rows=10629931 width=0) (actual time=45339.277..108223.237 rows=10000000 loops=1)
  23. | Hash Cond: (t2.id = t1.id)
  24. | -> Seq Scan on test2 t2 (cost=0.00..150547.31 rows=10629931 width=4) (actual time=0.128..54984.720 rows=10000000 loops=1)
  25. | -> Hash (cost=144248.48..144248.48 rows=10000048 width=4) (actual time=45278.900..45278.900 rows=10000000 loops=1)
  26. | Buckets: 2097152 Batches: 16 Memory Usage: 21976kB
  27. | -> Seq Scan on test1 t1 (cost=0.00..144248.48 rows=10000048 width=4) (actual time=1.324..43240.923 rows=10000000 loops=1)
  28. |
  29. |
  30. query | select count(*)
  31. | from test1 t1,test2 t2
  32. | where t1.id = t2.id;
  33. is_slow_sql | t
  34. start_time | 2022-09-10 18:24:45.876048+08
  35. finish_time | 2022-09-10 18:26:34.899024+08

02

查看历史SQL执行计划

对于执行中的SQL我们可以利用statement_complex_runtime视图获取当前语句的执行计划,以便我们进行分析。但是这个视图只是针对正在执行的作业的负载管理记录。而对于执行完成后的sql,我们想获取执行计划,进行分析就需要借助dbe_perf.statement_history这个视图。

1. 实际应用

接上节,当select执行完成后

  1. MogDB=# select count(*)
  2. MogDB-# from test1 t1,test2 t2
  3. MogDB-# where t1.id = t2.id;
  4. -[ RECORD 1 ]---
  5. count | 10000000
  • 根据unique_sql_id/query_id获取执行计划

上节中我们查询了当时正在执行sql的unique_sql_id,它对应statement_history中的unique_query_id。query_id对应此视图的debug_query_id

  1. MogDB=# \x
  2. Expanded display is on.
  3. MogDB=# select query_plan,sh.*
  4. MogDB-# from dbe_perf.statement_history sh
  5. MogDB-# where sh.unique_query_id='4071767743';
  6. -[ RECORD 1 ]--------+--------------------------------------------------------------------------------------------
  7. query_plan | Datanode Name: dn_6001
  8. | Aggregate (cost=955172.77..955172.78 rows=1 width=8) (actual time=109007.337..109007.338 rows=1 loops=1)
  9. | -> Hash Join (cost=357141.08..928597.94 rows=10629931 width=0) (actual time=45339.277..108223.237 rows=10000000 loops=1)
  10. | Hash Cond: (t2.id = t1.id)
  11. | -> Seq Scan on test2 t2 (cost=0.00..150547.31 rows=10629931 width=4) (actual time=0.128..54984.720 rows=10000000 loops=1)
  12. | -> Hash (cost=144248.48..144248.48 rows=10000048 width=4) (actual time=45278.900..45278.900 rows=10000000 loops=1)
  13. | Buckets: 2097152 Batches: 16 Memory Usage: 21976kB
  14. | -> Seq Scan on test1 t1 (cost=0.00..144248.48 rows=10000048 width=4) (actual time=1.324..43240.923 rows=10000000 loops=1)
  15. |
  16. |
  17. db_name | postgres
  18. schema_name | "$user",public
  19. origin_node | 0
  20. user_name | omm
  21. application_name | gsql
  22. client_addr |
  23. client_port | -1
  24. unique_query_id | 4071767743
  25. debug_query_id | 3940649673951393
  26. query | select count(*)
  27. | from test1 t1,test2 t2
  28. | where t1.id = t2.id;
  29. start_time | 2022-09-10 18:24:45.876048+08
  30. finish_time | 2022-09-10 18:26:34.899024+08
  31. slow_sql_threshold | 1000000
  32. transaction_id | 0
  33. thread_id | 70371368087664
  34. session_id | 70371368087664
  35. n_soft_parse | 0
  36. n_hard_parse | 1
  37. query_plan | Datanode Name: dn_6001
  38. | Aggregate (cost=955172.77..955172.78 rows=1 width=8) (actual time=109007.337..109007.338 rows=1 loops=1)
  39. | -> Hash Join (cost=357141.08..928597.94 rows=10629931 width=0) (actual time=45339.277..108223.237 rows=10000000 loops=1)
  40. | Hash Cond: (t2.id = t1.id)
  41. | -> Seq Scan on test2 t2 (cost=0.00..150547.31 rows=10629931 width=4) (actual time=0.128..54984.720 rows=10000000 loops=1)
  42. | -> Hash (cost=144248.48..144248.48 rows=10000048 width=4) (actual time=45278.900..45278.900 rows=10000000 loops=1)
  43. | Buckets: 2097152 Batches: 16 Memory Usage: 21976kB
  44. | -> Seq Scan on test1 t1 (cost=0.00..144248.48 rows=10000048 width=4) (actual time=1.324..43240.923 rows=10000000 loops=1)
  45. |
  46. |
  47. n_returned_rows | 1
  48. n_tuples_fetched | 12
  49. n_tuples_returned | 20000006
  50. n_tuples_inserted | 0
  51. n_tuples_updated | 0
  52. n_tuples_deleted | 0
  53. n_blocks_fetched | 88524
  54. n_blocks_hit | 26
  55. db_time | 109023716
  56. cpu_time | 87062876
  57. execution_time | 109008897
  58. parse_time | 537
  59. plan_time | 3121
  60. rewrite_time | 34
  61. pl_execution_time | 0
  62. pl_compilation_time | 0
  63. data_io_time | 2073831
  64. net_send_info | {"time":42193, "n_calls":932, "size":74606}
  65. net_recv_info | {"time":262575283, "n_calls":1, "size":65}
  66. net_stream_send_info | {"time":0, "n_calls":0, "size":0}
  67. net_stream_recv_info | {"time":0, "n_calls":0, "size":0}
  68. lock_count | 42
  69. lock_time | 204
  70. lock_wait_count | 0
  71. lock_wait_time | 0
  72. lock_max_count | 6
  73. lwlock_count | 0
  74. lwlock_wait_count | 0
  75. lwlock_time | 0
  76. lwlock_wait_time | 0
  77. details | \x120c0000010001a91419d74e8b020000000000ec0400000000000000000000000000010100000002201519d74e8b0200056c1619d74e8b020000000000ec04000000000000000000000.........
  78. is_slow_sql | t
  79. trace_id             |
  • 根据其他字段信息获取执行计划

如果不清楚有关该SQL的query_id等信息,也可以利用其他知晓的字段信息,如sql语句(query)、开始执行时间(start_time)等信息进行查询。下方为示例

  1. MogDB=# select query_plan
  2. MogDB-# from dbe_perf.statement_history sh
  3. MogDB-# where sh.query like 'select count(*)%' and start_time='2022-09-10 18:24:45.876048+08';
  4. -[ RECORD 1 ]-----------------------------------------------------------------------------------------------------------------------------------------
  5. query_plan | Datanode Name: dn_6001
  6. | Aggregate (cost=955172.77..955172.78 rows=1 width=8) (actual time=109007.337..109007.338 rows=1 loops=1)
  7. | -> Hash Join (cost=357141.08..928597.94 rows=10629931 width=0) (actual time=45339.277..108223.237 rows=10000000 loops=1)
  8. | Hash Cond: (t2.id = t1.id)
  9. | -> Seq Scan on test2 t2 (cost=0.00..150547.31 rows=10629931 width=4) (actual time=0.128..54984.720 rows=10000000 loops=1)
  10. | -> Hash (cost=144248.48..144248.48 rows=10000048 width=4) (actual time=45278.900..45278.900 rows=10000000 loops=1)
  11. | Buckets: 2097152 Batches: 16 Memory Usage: 21976kB
  12. | -> Seq Scan on test1 t1 (cost=0.00..144248.48 rows=10000048 width=4) (actual time=1.324..43240.923 rows=10000000 loops=1)
  13. |
  14.            |

2. 慢SQL诊断

在SQL语句执行性能不符合预期时,可以查看SQL语句执行信息,便于事后分析SQL语句执行时的行为,从而诊断SQL语句执行出现的相关问题。

示例:

  1. MogDB=# select * from dbe_perf.get_global_full_sql_by_timestamp('2022-09-10 18:24:45','2022-09-10 18:26:45') ;
  2. -[ RECORD 1 ]--------+--------------------------------------------------------------------------------------------
  3. node_name | dn_6001
  4. db_name | postgres
  5. schema_name | "$user",public
  6. origin_node | 0
  7. user_name | omm
  8. application_name | gsql
  9. client_addr |
  10. client_port | -1
  11. unique_query_id | 4071767743
  12. debug_query_id | 3940649673951393
  13. query | select count(*)
  14. | from test1 t1,test2 t2
  15. | where t1.id = t2.id;
  16. start_time | 2022-09-10 18:24:45.876048+08
  17. finish_time | 2022-09-10 18:26:34.899024+08
  18. slow_sql_threshold | 1000000
  19. transaction_id | 0
  20. thread_id | 70371368087664
  21. session_id | 70371368087664
  22. n_soft_parse | 0
  23. n_hard_parse | 1
  24. query_plan | Datanode Name: dn_6001
  25. | Aggregate (cost=955172.77..955172.78 rows=1 width=8) (actual time=109007.337..109007.338 rows=1 loops=1)
  26. | -> Hash Join (cost=357141.08..928597.94 rows=10629931 width=0) (actual time=45339.277..108223.237 rows=10000000 loops=1)
  27. | Hash Cond: (t2.id = t1.id)
  28. | -> Seq Scan on test2 t2 (cost=0.00..150547.31 rows=10629931 width=4) (actual time=0.128..54984.720 rows=10000000 loops=1)
  29. | -> Hash (cost=144248.48..144248.48 rows=10000048 width=4) (actual time=45278.900..45278.900 rows=10000000 loops=1)
  30. | Buckets: 2097152 Batches: 16 Memory Usage: 21976kB
  31. | -> Seq Scan on test1 t1 (cost=0.00..144248.48 rows=10000048 width=4) (actual time=1.324..43240.923 rows=10000000 loops=1)
  32. |
  33. |
  34. n_returned_rows | 1
  35. n_tuples_fetched | 12
  36. n_tuples_returned | 20000006
  37. n_tuples_inserted | 0
  38. n_tuples_updated | 0
  39. n_tuples_deleted | 0
  40. n_blocks_fetched | 88524
  41. n_blocks_hit | 26
  42. db_time | 109023716
  43. cpu_time | 87062876
  44. execution_time | 109008897
  45. parse_time | 537
  46. plan_time | 3121
  47. rewrite_time | 34
  48. pl_execution_time | 0
  49. pl_compilation_time | 0
  50. data_io_time | 2073831
  51. net_send_info | {"time":42193, "n_calls":932, "size":74606}
  52. net_recv_info | {"time":262575283, "n_calls":1, "size":65}
  53. net_stream_send_info | {"time":0, "n_calls":0, "size":0}
  54. net_stream_recv_info | {"time":0, "n_calls":0, "size":0}
  55. lock_count | 42
  56. lock_time | 204
  57. lock_wait_count | 0
  58. lock_wait_time | 0
  59. lock_max_count | 6
  60. lwlock_count | 0
  61. lwlock_wait_count | 0
  62. lwlock_time | 0
  63. lwlock_wait_time | 0
  64. details | \x120c0000010001a91419d74e8b020000000000ec0400000000000000000000000000010100000002201519d74e8b0200056c1619d74e8b020000000000ec04000000000000000000000.......
  65. is_slow_sql | t
  66. trace_id             |

六、总结

综上,我们可以灵活地使用多个视图去查看SQL的执行计划以及其他相关信息,以下总结了本文使用的查询语句:

01

查询当前正在执行SQL的执行计划

  • 定位SQL以及对应的query_id

  1. select query,query_id,unique_sql_id
  2. from pg_stat_activity
  3. where query like 'select count(*)%';
  • 获取目标SQL的执行计划

  1. select query_plan,query
  2. from dbe_perf.statement_complex_runtime
  3. where query_id = $query_id;

02

查询历史SQL执行计划

  • 通过query_id,unique_query_id获取执行计划

pg_stat_activity中的query_id对应statement_history的debug_query_id;
pg_stat_activity中的unique_sql_id对应statement_history的unique_query_id;

  1. select query_plan,sh.*
  2. from dbe_perf.statement_history sh
  3. where sh.unique_query_id=$unique_sql_id;
  • 通过其他已知条件获取执行计划

  1. select query,query_plan
  2. from dbe_perf.statement_history sh
  3. where sh.query like 'xxxxx' and sh.start_time='xxxx';

03

分析算子采样信息

  • 通过local_active_session/gs_asp视图来获取算子采样信息

  1. select plan_node_id, count(plan_node_id)
  2. from dbe_perf.local_active_session
  3. where query_id =$query_ID
  4. group by plan_node_id;

计数越大的plan_node_id,对应的算子执行时间越长。

04

通过其他函数获取SQL信息

  • 可以通过get_global_full_sql_by_timestamp()类函数来获取某一时间段内所有SQL的信息,包括执行计划

select * from dbe_perf.get_global_full_sql_by_timestamp('2022-09-10 18:24:45','2022-09-10 18:26:45') ;

03a0facdd428915be7aa81e673d5a084.gif

数据驱动,成就未来,云和恩墨,不负所托!


云和恩墨创立于2011年,以“数据驱动,成就未来”为使命,是智能的数据技术提供商。我们致力于将数据技术带给每个行业、每个组织、每个人,构建数据驱动的智能未来。

云和恩墨在数据承载(分布式存储、数据持续保护)、管理(数据库基础软件、数据库云管平台、数据技术服务)、加工(应用开发质量管控、数据模型管控、数字化转型咨询)和应用(数据服务化管理平台、数据智能分析处理、隐私计算)等领域为各个组织提供可信赖的产品、服务和解决方案,围绕用户需求,持续为客户创造价值,激发数据潜能,为成就未来敏捷高效的数字世界而不懈努力。

5fa23d74849b4fb498d441a60d544cef.gif

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/我家自动化/article/detail/122262?site
推荐阅读
相关标签
  

闽ICP备14008679号