当前位置:   article > 正文

查看postgresql 磁盘占用_PostgreSQL从运维出发

pgsql 查看资源使用情况pgsql 查看资源使用情况

1. 前言

最近在忙着处理项目,遇到了不少性能问题,和硬件切磋了八百回合,今天试着从运维和硬件方面总结一点东西。

2. 四板斧

PostgreSQL依赖文件系统,诸如我们熟知的ext3、ext4等,不能直接运行在块设备(磁盘、磁带等)和裸设备(键盘)上,而Oracle对于二者都支持,Oracle 10g supports both raw devices and block devices for OCR, Voting disk & Database files so it is really a matter of choice。因此首先打交道的就是磁盘,磁盘的好坏对于PostgreSQL的影响举足轻重。第二,CPU,就不多逼逼了,运算都靠这位大哥了;第三,内存,PostgreSQL和内存的关系也不言而喻,共享内存、私有内存等等都是内存;第四,网络,PostgreSQL在 TCP/IP 协议之上实现了一套基于消息的通信协议,连接都傍着网络。

2.1. 磁盘

先看磁盘,现在随着SSD等磁盘技术的平民化,以及动辄上百GB内存和大几十core的CPU普及,数据库的性能也越来越强悍。磁盘位于最底下的一层,就好比脚,支撑着整个身体,负重前行,脚不给力,整个系统就有点使不上力,数据库相对而言是偏IO密集型的应用,目前我现在正在做的项目情况就大有有劲使不上力的赶脚,CPU和内存都很给力,唯独磁盘是SATA SSD盘,用dd验证了一下的顺序读写能力,可以看到9.9MB/s,对于几TB的查询业务,性能堪忧。

测磁盘性能我们可以用dd来测试,数据量越大越准确,这里用8k,来对标PostgreSQL中的blocksize。在我自己的本地的服务器上测试,可以看到顺序同步写入的速度是3.2MB/s,有点感人,dsync就是每写一次就同步一次,是真正的写磁盘,所以可以听到磁盘哗哗的响

[root@VM-0-131-centos ~]# time dd if=/dev/zero of=test bs=8k count=5120 oflag=dsync5120+0 records in5120+0 records out41943040 bytes (42 MB) copied, 12.9928 s, 3.2 MB/s real0m13.079suser0m0.003ssys0m0.207s

在Linux中,对于一个普通IO都会先经过page cache(o_direct除外),那么还可以这么测,写到page cache(不指定oflag=dsync)就结束,由OS去调度写。PostgreSQL也是如此,PostgreSQL对于page cache还是比较喜欢的,对于普通数据文件的写入,也是由bgwriter先写到page cache中,再由checkpointer和OS来刷写脏页,所以用dd测的这两个值有参考意义,顺序同步写入:3.2 MB/s,顺序写入:312 MB/s。

[root@VM-0-131-centos ~]# time dd if=/dev/zero of=test bs=8k count=10000001000000+0 records in1000000+0 records out8192000000 bytes (8.2 GB) copied, 26.272 s, 312 MB/s real0m26.273suser0m0.094ssys0m6.423s

782546086e12eb17a880f55a94ed760c.png

可以看到,dd结束后,还在不停的IO,正是从page cache中不停地刷刷刷。

磁盘的写入能力测试了,再测一下读取的能力,顺序读取的能力是185MB/s。

[root@VM-0-131-centos ~]# time dd if=test of=/dev/null bs=8k2000000+0 records in2000000+0 records out16384000000 bytes (16 GB) copied, 88.3873 s, 185 MB/s real1m28.388suser0m0.125ssys0m2.675s

随机读取的能力不好测,对各种盘的随机读速度有个大概认知就行了:

1) M2 NVME SSD随机读大约40M,顺序读大约2000-4000M

2) SATA SSD 随机读大约30MB,顺序读大约550M

3) 机械硬盘随机读大约 0.5M,顺序读大约 100-200M

复合我们的预期。至此,对于磁盘的读写能力有了一个大致的认知。除了硬盘能力好坏,IO的调度策略也有影响,Linux的IO调度器称为evelator(电梯),坐过电梯都知道,电梯的算法是:电梯总是从一个方向,把人送到有需要的最高的位置,然后反过来,把人送到有需要的最低一个位置。这样效率是最高的,因为电梯不用根据先后顺序,不断调整方向,走更多的冤枉路。

6719c094f5ddd0a2ad19946410a68ca9.png

可以看到有noop、deadline和cfq。

[root@VM-0-131-centos ~]# cat /sys/block/sr0/queue/schedulernoop deadline [cfq]

1) noop实现了一个简单的fifo队列,它像电梯的工作主法一样对i/o请求进行组织,当有一个新的请求到来时,它将请求合并到最近的请求之后,以此来保证请求同一介质,noop倾向饿死读而利于写,noop对于闪存设备,ram,嵌入式系统是最好的选择。大白话来说就叫no operation,就是不调度的算法,有什么请求都直接写下去。这通常用于两种情形:你的磁盘是比如SSD那样的内存存储设备,根本不需要调度,往下写就对了。第二种情形是你的磁盘比较高级,自带调度器,OS不需要自作聪明,有什么请求直接往下扔就好了。这两种情况就应该选noop算法。

2) cfq是默认的调度策略,顾名思义,绝对公平算法,completely fair queuing,它是一个复杂的调度策略,按进程创建多个队列,试图保持对多个进程的公平,cfq试图均匀地分布对i/o带宽的访问,避免进程被饿死并实现较低的延迟。

3) deadine核心在于保证每个IO请求在一定的时间内一定要被服务到,以此来避免某个请求饥饿。deadline是一个改良的电梯算法,基本上和电梯算法一样,但加了一条,如果部分请求等太久了(deadline到了,默认读请求500ms,写请求5s),电梯就要立即给我掉头,先处理这个请求。参照此处的测试情况:

https://www.percona.com/blog/2009/01/30/linux-schedulers-in-tpcc-like-benchmark/

可以看到,对于MySQL来说,noop和deadline较cfq更友好。

d8fa9f657ea39ece342fb0f00c15cf04.png

6d8a123e06ef00d3b6205ca4b46ede55.png

对于PostgreSQL和Oracle也是如此,基于德哥的测试结果也建议采用deadline。

[root@VM-0-131-centos ~]# echo deadline > /sys/block/sda/queue/scheduler

磁盘相关基础知识了解后,就需要实战了。我们最常用的top,先用top查看是否有iowait,wa(iowait)表示 CPU 在等待 I/O 操作完成所花费的时间,通常该指标越低越好,否则表示 I/O 存在瓶颈。

19c1c73a3e8f3732d2d56990605365a0.png

这里看到,我的磁盘比较挫,存在很多iowait。接下来再用iotop,查看是哪些进程出了状况: iotop -u postgres ,看个整体,是否有哪些进程写入高,那些进程没有在做任何读取,这样就可以通过pg_stat_activity来追踪进程在执行些什么语句。给几个万金油SQL:

1.查看正在执行的查询:select pid, query,query_start, now() - query_start as duration from pg_stat_activity where state <> 'idle' order by duration;

2.查看连接情况:select datname,count(*) as open,count(*) filter (where state = 'active' ) as active,count(*) filter (where state = 'idle' ) as idle,count(*) filter (where state = 'idle in transaction' ) as idle_in_trans from pg_stat_activity group by rollup(1);

3.查看可能的阻塞情况:select pid,pg_blocking_pids(pid),wait_event_type,query from pg_stat_activity where wait_event_type = 'Lock' and pid!=pg_backend_pid();

2d329792ff9a1d2cf8cc226a19a94eb4.png

整体看完,就可以使用iostat看具体的了,iostat -x -d -k 1,注意  iostat中的 %util 基本已经没有任何作用了,svctm也没什么参考意义 , 磁盘是否达到真正极限瓶颈,需要参考通过fio等工具压测出的极限带宽和IOPS值 。在iostat的注释中可以看到 svctm:The average service time (in milliseconds) for I/O requests that were issued to the device. Warning! Do not trust this field any more. This field will be removed in a future sysstat version, 而对于util来说,%util表示该设备有I/O(即非空闲)的时间比率,不考虑I/O有多少,只考虑有没有。 由于现代硬盘设备都有并行处理多个I/O请求的能力,所以%util即使达到100%也不意味着设备饱和了。举个 简单 的例子:某硬盘处理单个I/O需要0.1秒,有能力同时处理10个I/O请求,那么当10个I/O请求依次顺序提交的时候,需要1秒才能全部完成,在1秒的采样周期里%util达到100%;而如果10个I/O请求一次性提交的话,0.1秒就全部完成,在1秒的采样周期里%util只有10%。可见,即使%util高达100%,硬盘也仍然有可能还有余力处理更多的I/O请求,即没有达到饱和状态。 假设一个块设备一个队列,普通的物理硬盘,每秒可以响应几百个request(IOPS) SSD1,大约是6万,SSD2,大约9万,SSD3,大约50万,SSD4,大约60万,SSD5,大约78.5万,所以只有一个队列也是不现实的。一个队列会带来如下问题: 1. 全部IO中断会集中到一个CPU上 2. 不同NUMA节点也会集中到一个CPU上

798fa0dc35ff105635eee634c67b659a.png

而PostgreSQL自身与IO相关的参数有很多,在此就简单介绍下,不做深入。影响较大的是fsync、full_page_write、checkpoint_timeout、checkpoint_compeletion_target等,其余的诸如commit_delay和bgwriter相关参数,也和IO有关。

2.2. 内存

内存都很熟悉,内存越大,PostgreSQL的shared_buffer也能设置更大,但有一个合理的范围:25% ~ 40%,在某些TPCC测试的场景下,这个值还可以调大更大,比如70%的RAM,这样让warehouse的数据都能在数据库自己的内存中,减少双缓存带来的影响。在PostgreSQL中,需要特别预防OOM,还有因为work_mem不足或者有递归死循环的这种类似SQL导致临时文件的激增。 首先是OOM,即OutOfMemory,内存溢出,原因是:分配的太少,用的太多或用完没释放。 Linux是允许memory overcommit的,只要你来申请内存我就给你,寄希望于进程实际上用不到那么多内存,但万一用到那么多了呢?那就会发生类似“银行挤兑”的危机,现金(内存)不足了。Linux设计了一个OOM killer机制(OOM = out-of-memory)来处理这种危机:挑选一个进程出来杀死,以腾出部分内存,如果还不够就继续杀…,所以我们可以看到类似如下,把postmaster进程给杀了: Out of Memory: Killed process 12345 (postgres). 但我们通常使用的free查看内存的话,乍一看,我没怎么用怎么free就那么低了? 在 Linux 中经常发现空闲内存很少,似乎所有的内存都被系统占用了,表面感觉是内存不够用了 :
-bash-4.2$ free -m              total        used        free      shared  buff/cache   availableMem:        32012        7359        9592     0       15060       24256Swap:             0           0           0
Linux系统默认的设置倾向于把内存尽可能的用于文件cache,所以在一台大内存机器上,往往我们可能发现没有多少剩余内存。 对于我们的操作系统,free命令显示出的空闲内存,应该更多关注-/+ buffers/cache: 这表明了你的系统可能还剩余的空闲内存。 对于应用程序来说,buffers/cached占有的内存是可用的,因为buffers/cached是为了提高文件读取的性能,当应用程序需要用到内存的时候,buffers/cached会很快地被回收,以供应用程序使用。 由于PostgreSQL是多进程的架构,每个进程自己也会占一些内存:

b1b7864f0afa723e45df8d5ff5a2aa7d.png

除了每个进程自己的私有内存,还有数据库中配置的work_mem、temp_buffers和maintenance_work_mem,尤其是work_mem, 如果有多个用户尝试执行排序操作 , 则系统将为所有用户分配大小为 work_mem *   总排序操作数的空间。请注意 对于复杂的查询 , 可能会同时并发运行好几个排序或散列(hash)操作;每个排序或散列操作都会分配这个参数声明的内存来存储中间数据。同样 , 好几个正在运行的会话可能会同 时 进行排序操作 , 因此使用的总内存量可能 是 work_me m 的 很多 倍。 因此我们可以在会话级别设置该参数,而 maintenance_work_mem设置较大的值对于 vacuum (vacuum清理dead tuple时,扫描数据页得到的dead tuple列表是放在maintenance_work_mem里面的) , RESTORE , CREATE INDEX , ADD FOREIGN KEY和ALTER TABLE等操作的性能提升效果显著 , 主要针对VACUUM , CREATE INDEX , REINDEX等操作。 并且 在一个数据库会话里 , 只有一个这样的操作可以执行 , 并且一个数据库实例通常不会有太多这样的工作并发执行 。 不过需要 注意 的是, 当 autovacuum 运行时,可能会分配最高达这个内存的   autovacuum_max_workers 倍,因此要小心不要把该默认值设置得太高。

还有max_connections参数,假如连接数过多,对于创建的每个连接,操作系统都需要为打开网络套接字的进程分配内存,可能更多,并且设置较高max_connections也涉及到其他成本比如磁盘争用,造成过多的io等待;操作系统调度甚至CPU级别的缓存争用。所以我们可以借用外部连接池如pg_bouncer或者应用程序中内置的连接池,比如java的jdbc。

除此之外,也可通过设置内核参数 vm.panic_on_oom 使得发生OOM时自动重启系统。

第二就是临时文件,这个和work_mem有关,临时文件位于base目录下的pgsql_tmp,目录下的文件命名为pgsql_tmpxxx.yyy,xxx是进程号,对应的是哪个进程正在使用这个临时文件,yyy就是段号,默认每满1GB分一个段,和普通数据文件一样,如pgsql_tmp1333.1。当执行计划里看到类似的结果:

Sort Method: external merge Disk: 54240kB

就表明没有足够的内存在内存中完成排序,得溢出到磁盘,并发足够高的时候这个值还不能设置太高,一旦OOM就夭寿了,一般8MB就很多了,也要注意hash join生成临时文件的速度是很可观的。所以当查询要使用的内存超出work_mem的大小时(包括排序,DISTINCT,MERGE JOIN,HASH JOIN,笛卡尔积,哈希聚合,分组聚合,递归查询)等操作时会使用临时文件来存储中间过程的数据。如果频繁的进行上述操作,临时文件将会快速增长。只有重启能够解决该问题,重启后将清空所有临时文件。正好此次项目就遇到了,4T的磁盘都被撑爆了,紧急重启才释放空间。

不过不要妄想通过删除文件能够释放空间,因为文件句柄还在被使用,只有一个文件的引用计数为0时,磁盘空间才会被彻底回收,Linux使用 lsof | grep deleted 命令获得一个已经被删除但是仍然被应用程序占用的文件列表,kill掉相关进程即可强制要求系统回收分配给正在使用的的文件。

-bash-4.2$ tree -d.|-- 1|-- 14184|-- 14185`-- pgsql_tmp 4 directories-bash-4.2$ lsof | grep deletedpostgres   1987             postgres    1u      CHR              136,0       0t0         3 /dev/pts/0 (deleted)postgres   1987             postgres    2u      CHR              136,0       0t0         3 /dev/pts/0 (deleted)

内存一般用vmstat或top,主要关心swap是否用到。

c3f0c26e31b77efee2ea49aaec405c2a.png

对于PostgreSQL本身,有pgfincore、pg_prewarm还有pg_buffercache这些优秀的插件等,都和内存打交道。

2.3. CPU

CPU就是大脑了,CPU的好坏与多少直接决定了PostgreSQL的性能好坏,主频越高越好。CPU的观察使用top和htop就可以了,个人喜欢用htop,有高亮,每个进程的使用情况也可以看的很清楚。对于现在动辄大几十个CPU的服务器,看到CPU 100%了,也不要慌,因为可能只是某一个CPU饱和了。如果服务器的CPU比较少,且大多 已经饱和, 那最好不要开启PostgreSQL的并行,因为 并行执行会从其他查询中窃取 CPU 时间,并增加响应时间。

39ea144a770b0017ea9fd93cab60516b.png

对于CPU,也有很多可以调优的地方,比如Linux 给我们提供了方便的工具用来手动分配进程到不同的CP上(CPU Affinity),这样我们可以按照服务器和应用的特性来安排特定的进程到特定的CPU上,比如要消耗大量CPU和I/O资源,如果我们能分配PostgreSQL进程到某个或多个CPU上并由这些CPU专门处理的话会毫无疑问的提高应用程序的响应和性能。还有一些特殊情况是必须绑定应用程序到某个CPU上的,比如某个软件的授权是单 CPU 的,如果想运行在多CPU机器上的话就必须限制这个软件到某一个CPU上。在此提一句,鲲鹏基于NUMA架构的服务器上,进程绑定在某个CPU上,性能提升明显。

还有网卡也可以绑定到某个CPU上,硬件中断发生频繁,是件很消耗CPU资源的事情,在多核CPU条件下如果有办法把大量硬件中断分配给不同的CPU (core) 处理显然能很好的平衡性能。现在的服务器上动不动就是多CPU多核、多网卡、多硬盘,如果能让网卡中断独占1个CPU (core)、磁盘IO 中断独占1个CPU的话将会大大减轻CPU的负担,提高整体处理效率。Linux内核从2.4以后的版本才支持把不同的硬件中断请求(IRQs)分配到特定的CPU上,这个绑定技术被称为 SMP IRQ Affinity。在网络非常繁忙的情况下,对于文件服务器、高流量Web服务器这样的应用来说,把不同的网卡IRQ均衡绑定到不同的CPU上将会减轻某个CPU的负担,提高多个CPU 整体处理中断的能力;对于数据库服务器这样的应用来说,把磁盘控制器绑到一个CPU,把网卡绑定到另一个CPU将会提高数据库的响应时间、优化性能。合理的根据自己的生产环境和应用的特点来平衡 IRQ 中断有助于提高系统的整体吞吐能力和性能。 另外比较关心的就是CPU的使用率,就是CPU非空闲态运行的时间占比,它反映了 CPU 的繁忙程度。比如,单核CPU 1s 内非空闲态运行时间为 0.8s,那么它的 CPU 使用率就是 80%;双核 CPU 1s 内非空闲态运行时间分别为 0.4s 和 0.6s,那么,总体CPU使用率就是 (0.4s + 0.6s) / (1s * 2) = 50%。 在 Linux 系统下,使用 top 命令查看 CPU 使用情况,可以得到如下信息: %CPU(s):  0.0 us,  0.0 sy,  0.0 ni, 99.9 id,  0.0 wa,  0.0 hi,  0.0 si,  0.0 st us(user):表示 CPU 在用户态运行的时间百分比,通常用户态 CPU 高表示有应用程序比较繁忙。典型的用户态程序包括:数据库、Web 服务器等。 sy(sys):表示 CPU 在内核态运行的时间百分比,内核空间占用率,该字段通常是比较低的,如果该值高说明内核态代码耗时严重,或者处于内核态中的任务CPU占比高。通常,我们的用户态程序基本不会占用sys字段,但也有一种情况就是频繁进入内核态,频繁请求内核服务。比如上下文切换、大量的中断导致sys很高。 ni(nice):表示用 nice 修正进程优先级的用户态进程执行的 CPU 时间。nice 是一个进程优先级的修正值,如果进程通过它修改了优先级,则会单独统计 CPU 开销。 id(idle):表示 CPU 处于空闲态的时间占比,此时,CPU 会执行一个特定的虚拟进程,名为 system Idle Process。 wa(iowait):表示 CPU 在等待 I/O 操作完成所花费的时间,通常该指标越低越好,否则表示 I/O 存在瓶颈,可以用前文提到的iotop、iostat、sar等定位。 hi(hardirq):表示 CPU 处理硬中断所花费的时间。硬中断是由外设硬件(如键盘控制器、硬件传感器等)发出的,需要有中断控制器参与,特点是快速执行。 si(softirq):表示 CPU 处理软中断所花费的时间。软中断是由软件程序(如网络收发、定时调度等)发出的中断信号,特点是延迟执行。 st(steal):表示 CPU 被其他虚拟机占用的时间,仅出现在多虚拟机场景。如果该指标过高,可以检查下宿主机或其他虚拟机是否异常。 由于 CPU 有多种非空闲态,因此,CPU 使用率计算公式可以总结为:CPU 使用率 = (1 - 空闲态运行时间/总运行时间) * 100%。 另外负载也和CPU息息相关,平均负载(Load Average)是指单位时间内,系统处于可运行状态(Running / Runnable)和 不可中断态的平均进程数,也就是平均活跃进程数。可运行态进程包括正在使用 CPU或者等待CPU的进程;不可中断态进程是指处于内核态关键流程中的进程,并且该流程不可被打断。比如当进程向磁盘写数据时,如果被打断,就可能出现磁盘数据与进程数据不一致。不可中断态,本质上是系统对进程和硬件设备的一种保护机制。 在 Linux 系统下,使用 top 命令查看平均负载,可以得到如下信息: top - 19:44:46 up 41 days,  9:20,  2 users,  load average: 0.01, 0.35, 0.33 这 3 个数字分别表示 1分钟、5分钟、15分钟内系统的平均负载。该值越小,表示系统工作量越少,负荷越低;反之负荷越高。 当平均负载持续大于 0.7 * CPU 逻辑核数,就需要开始调查原因,防止系统恶化; 当平均负载持续大于 1.0 * CPU 逻辑核数,必须寻找解决办法,降低平均负载; 当平均负载持续大于 5.0 * CPU 逻辑核数,表明系统已出现严重问题,长时间未响应,或者接近死机。 在此要提一下chCPU这个命令,使用chCPU命令可以修改CPU的状态。可以启用或禁用CPU,扫描新的CPU等。
[root@VM-0-131-centos ~]# chCPU --help Usage: chCPU [options] Options:  -h, --help                    print this help  -e, --enable <CPU-list>       enable CPUs  -d, --disable <CPU-list>      disable CPUs  -c, --configure <CPU-list>    configure CPUs  -g, --deconfigure <CPU-list>  deconfigure CPUs  -p, --dispatch         set dispatching mode  -r, --rescan                  trigger rescan of CPUs  -V, --version                 output version information and exit

2.4. 网络

网络就像人的血液,信息的载体。观察网络可以用iftop、sar、bmon等命令,我偏爱用sar来看,比如sar -n DEV 1,观察rxKB/s和txKB/s即可,对于网络,还需要乘上8,换算成bit,也就是bit/s,对于千兆网,平均约110MB/s,带宽约880MB,属于正常,因为还受到网卡速度的限制、网络传输质量、网络高峰期等等。

73aaf4773fc400f5f3e72febb6a30861.png

bmon也很好用,敲一下bmon即可。

ce75d8bc4d1b1c3888cb6bbf5216b2b1.png

既然是基于网络的,那么也不能避免某些攻击,比如我这里建立了一个连接,然后我用tcpdump来抓一下包。

daf1a6efbee7a2ff59df223d969cd450.png

通过抓包,我可以清晰看到当前会话做了些什么,可以看到hello world

3bacf60cadd5ff7a11812d763786f140.png

更严重一点的,可以看到你的密码,此处是为了演示将pg_hba.conf里面设置成了password(密码以明文传输):

b24915e0867ce50f79d225921757b96f.png

当然PostgreSQL提供基于ssl的加密会话,unix套接字连接以及ssh隧道转发等,安全性还是很高的。PostgreSQL自身有几个和tcp相关的参数,默认都是取的linux的默认值。

postgres=# select name from pg_settings where name like 'tcp%';

          name           

-------------------------

 tcp_keepalives_count

 tcp_keepalives_idle

 tcp_keepalives_interval

 tcp_user_timeout

(4 rows)

对于网络,另外关心的就是丢包率,假如链路太长,网络环境差,ARP等导致丢包严重,那也是一件很令人捉急的事情。

-bash-4.2$ ping 172.16.0.131

PING 172.16.0.131 (172.16.0.131) 56(84) bytes of data.

64 bytes from 172.16.0.131: icmp_seq=1 ttl=64 time=0.446 ms

64 bytes from 172.16.0.131: icmp_seq=2 ttl=64 time=0.135 ms

64 bytes from 172.16.0.131: icmp_seq=3 ttl=64 time=0.131 ms

64 bytes from 172.16.0.131: icmp_seq=4 ttl=64 time=0.139 ms

64 bytes from 172.16.0.131: icmp_seq=5 ttl=64 time=0.134 ms

64 bytes from 172.16.0.131: icmp_seq=6 ttl=64 time=0.134 ms

64 bytes from 172.16.0.131: icmp_seq=7 ttl=64 time=0.131 ms

64 bytes from 172.16.0.131: icmp_seq=8 ttl=64 time=0.136 ms

^C

--- 172.16.0.131 ping statistics ---

8 packets transmitted, 8 received, 0% packet loss, time 7000ms

2.5. 全能工具

看了这么多命令,头都大了,谁记得住这么多,在此推荐几个全能命令,第一个是nmon,集各种监控于一身,还可以导出为html的格式。

d9370320f11ec296ffb9bd59cc6ea327.png

52735a4c681d430379874c1f14dd5ab6.png

还有一个就是dstat,也很全面,界面也很友好。

9677d162e47bb5ce41f8d340535eeba1.png

找出占用系统资源最高的进程

73897e9f19a4b2f4b83470f97b612ff2.png

查看全部内存都有谁在占用:dstat -g -l -m -s --top-mem

a8a0205b3e84cea2029bc4dc84f94f49.png

再分享几张干货

dd38163596d4562579d6a99bf24d3135.png

e685e3048331af9035f1081319e26e3b.png

35de5e387c652d1cf6ac87ce6d84dc02.png

7ad62f181dcdccfc86130355df9baec5.png

3. 总结

看样子想玩好PostgreSQL,不仅要懂原理,碰到问题了知道如何定位也是一件十分重要的技能。学习是件漫长的事,莫不要学久了变成下面的样子。↓

9791f6ecf0bf19bdecf597cf25b1e624.png

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/羊村懒王/article/detail/256283
推荐阅读
相关标签
  

闽ICP备14008679号