赞
踩
本文为joshua317原创文章,转载请注明:转载自joshua317博客 一天一个 Linux 命令(40):vmstat 命令 - joshua317的博客
Linux下的vmstat(英文全称:Virtual Meomory Statistics),虚拟内存统计的缩写,可对操作系统的虚拟内存、进程、CPU活动、I/O等系统整体运行状态进行监控。
vmstat不足之处是无法对某个进程进行深入分析。vmstat 工具提供了一种低开销的系统性能观察方式。因为 vmstat 本身就是低开销工具,在非常高负荷的服务器上,你需要查看并监控系统的健康情况,在控制窗口还是能够使用vmstat 输出结果。
- vmstat [options] [delay [count]]
- vmstat [参数]
-
- Usage:
- vmstat [options] [delay [count]]
-
- Options:
- -a, --active active/inactive memory
- -f, --forks number of forks since boot
- -m, --slabs slabinfo
- -n, --one-header do not redisplay header
- -s, --stats event counter statistics
- -d, --disk disk statistics
- -D, --disk-sum summarize disk statistics
- -p, --partition <dev> partition specific statistics
- -S, --unit <char> define display unit
- -w, --wide wide output
- -t, --timestamp show timestamp
-
- -h, --help display this help and exit
- -V, --version output version information and exit
- -a 显示活跃和非活跃内存
- -f 显示启动后创建的进程总数。
- -m 显示slab信息
- -n 头信息仅显示一次
- -s 以表格方式显示事件计数器和内存状态
- -d 显示磁盘相关统计信息
- -p 显示指定磁盘分区统计信息
- -S 使用指定单位显示。参数有 k 、K 、m 、M ,分别代表1000、1024、1000000、1048576字节(byte)。默认单位为K(1024 bytes)
- -V 显示vmstat版本信息
-
- delay:刷新时间间隔。如果不指定,只显示一条结果。
- count:刷新次数。如果不指定刷新次数,但指定了刷新时间间隔,这时刷新次数为无穷。
对操作系统的虚拟内存、进程、CPU活动、I/O等系统整体运行状态进行监控。
5.1 显示活跃和非活跃内存
- # vmstat -a
-
- procs -----------memory---------- ---swap-- -----io---- -system-- ------cpu-----
- r b swpd free inact active si so bi bo in cs us sy id wa st
- 1 0 0 328332 2438756 4577156 0 0 0 10 0 0 0 0 99 0 0
-
- #每间隔1秒统计一次
- # vmstat 1
-
- #每间隔1秒统计一次,总共统计5次
- # vmstat -a 1 5
- procs -----------memory---------- ---swap-- -----io---- -system-- ------cpu-----
- r b swpd free inact active si so bi bo in cs us sy id wa st
- 1 0 0 329084 2438724 4575624 0 0 0 10 0 0 0 0 99 0 0
- 0 0 0 328812 2438732 4575328 0 0 0 0 1068 1560 0 0 99 0 0
- 0 0 0 328456 2438732 4575776 0 0 0 0 848 1370 0 0 100 0 0
- 0 0 0 328456 2438732 4575776 0 0 0 76 683 1148 0 0 100 0 0
- 0 0 0 328812 2438728 4575384 0 0 0 72 1564 2719 0 0 99 0 0
-
-
-
- 字段说明
- Procs(进程):
- r: 运行队列中进程数量
- b: 等待IO的进程数量
-
- Memory(内存):
- swpd: 使用虚拟内存大小
- free: 可用内存大小
- buff: 用作缓冲的内存大小
- cache: 用作缓存的内存大小
-
- Swap:
- si: 每秒从交换区写到内存的大小
- so: 每秒写入交换区的内存大小
- IO:(现在的Linux版本块的大小为1024bytes)
- bi: 每秒读取的块数
- bo: 每秒写入的块数
-
- system:
- in: 每秒中断数,包括时钟中断。
- cs: 每秒上下文切换数。
-
- CPU(以百分比表示):
- us: 用户进程执行时间(user time)
- sy: 系统进程执行时间(system time)
- id: 空闲时间(包括IO等待时间),中央处理器的空闲时间 。以百分比表示。
- wa: 等待IO时间
-
- 备注: 如果r经常大于4 ,且id经常少于40,表示cpu的负荷很重。如果pi,po 长期不等于0,表示内存不足。如果disk经常不等于0, 且在b中的队列大于3, 表示io性能不好。Linux在具有高稳定性、可靠性的同时,具有很好的可伸缩性和扩展性,能够针对不同的应用和硬件环境调整,优化出满足当前应用需要的最佳性能。因此企业在维护Linux系统、进行系统调优时,了解系统性能分析工具是至关重要的。
5.2 显示启动后创建的进程总数
- # vmstat -f
- 70291088 forks
-
- #说明,这个数据是从/proc/stat中的processes字段里取得的
5.3 查看系统的slab信息
- # vmstat -m
-
- Cache Num Total Size Pages
- nf_conntrack_1 450 450 320 25
- isofs_inode_cache 75 75 640 25
- ext4_groupinfo_4k 420 420 136 30
- ext4_inode_cache 155824 156080 1024 16
- ext4_xattr 184 184 88 46
- ext4_free_data 2560 2560 64 64
- ext4_allocation_context 128 128 128 32
- ext4_io_end 1960 1960 72 56
- ext4_extent_status 27527 84966 40 102
- jbd2_journal_handle 340 340 48 85
- jbd2_journal_head 1044 1044 112 36
- jbd2_revoke_table_s 256 256 16 256
- jbd2_revoke_record_s 4096 4096 32 128
- ip6_dst_cache 90 90 448 18
- RAWv6 52 52 1216 26
- UDPLITEv6 0 0 1216 26
- UDPv6 104 104 1216 26
- tw_sock_TCPv6 80 80 256 16
- TCPv6 60 60 2112 15
- cfq_queue 0 0 232 17
- bsg_cmd 0 0 312 26
- Cache Num Total Size Pages
- mqueue_inode_cache 18 18 896 18
- hugetlbfs_inode_cache 26 26 608 26
- configfs_dir_cache 184 184 88 46
- dquot 272 272 256 16
- kioctx 112 112 576 28
- userfaultfd_ctx_cache 0 0 192 21
- dio 75 75 640 25
- pid_namespace 0 0 2200 14
- posix_timers_cache 64 64 248 16
- UDP-Lite 0 0 1088 30
- flow_cache 0 0 144 28
- UDP 120 120 1088 30
- tw_sock_TCP 304 352 256 16
- TCP 491 544 1984 16
- dax_cache 21 21 768 21
- blkdev_integrity 0 0 112 36
- blkdev_queue 39 39 2496 13
- blkdev_ioc 312 312 104 39
- user_namespace 0 0 488 16
- dmaengine-unmap-128 240 240 1088 30
- sock_inode_cache 682 1050 640 25
- Cache Num Total Size Pages
- fsnotify_mark_connector 3060 3060 24 170
- net_namespace 6 6 5248 6
- shmem_inode_cache 1187 1224 680 24
- Acpi-State 1286 1683 80 51
- task_delay_info 1080 1080 112 36
- taskstats 96 96 328 24
- proc_inode_cache 7205 17760 672 24
- sigqueue 400 400 160 25
- bdev_cache 38 38 832 19
- kernfs_node_cache 16830 16830 120 34
- mnt_cache 189 189 384 21
- inode_cache 9858 10746 592 27
- dentry 776220 776370 192 21
- iint_cache 0 0 128 32
- avc_xperms_node 3650 3650 56 73
- avc_node 3584 3584 72 56
- selinux_inode_security 11526 11526 40 102
- buffer_head 1134212 1195467 104 39
- vm_area_struct 17299 17496 216 18
- mm_struct 304 340 1600 20
- fs_cache 320 320 64 64
- Cache Num Total Size Pages
- files_cache 475 475 640 25
- signal_cache 560 560 1152 28
- sighand_cache 253 300 2112 15
- task_xstate 627 627 832 19
- task_struct 279 315 4208 7
- cred_jar 1533 1533 192 21
- anon_vma 9154 9588 80 51
- pid 2493 3168 128 32
- shared_policy_node 95025 102765 48 85
- numa_policy 31 31 264 31
- radix_tree_node 87727 87808 584 28
- idr_layer_cache 255 255 2112 15
- dma-kmalloc-8192 0 0 8192 4
- dma-kmalloc-4096 0 0 4096 8
- dma-kmalloc-2048 0 0 2048 16
- dma-kmalloc-1024 0 0 1024 16
- dma-kmalloc-512 32 32 512 16
- dma-kmalloc-256 0 0 256 16
- dma-kmalloc-128 0 0 128 32
- dma-kmalloc-64 0 0 64 64
- dma-kmalloc-32 0 0 32 128
- Cache Num Total Size Pages
- dma-kmalloc-16 0 0 16 256
- dma-kmalloc-8 0 0 8 512
- dma-kmalloc-192 0 0 192 21
- dma-kmalloc-96 0 0 96 42
- kmalloc-8192 45 56 8192 4
- kmalloc-4096 152 168 4096 8
- kmalloc-2048 534 624 2048 16
- kmalloc-1024 1353 1472 1024 16
- kmalloc-512 1007 1152 512 16
- kmalloc-256 3049 3936 256 16
- kmalloc-192 77229 77427 192 21
- kmalloc-128 1991 2048 128 32
- kmalloc-96 2685 3570 96 42
- kmalloc-64 155391 156096 64 64
- kmalloc-32 1920 1920 32 128
- kmalloc-16 4608 4608 16 256
- kmalloc-8 5120 5120 8 512
- kmem_cache_node 192 192 64 64
- kmem_cache 128 128 256 16
-
- #说明,这组信息来自于/proc/slabinfo。
- slab:由于内核会有许多小对象,这些对象构造销毁十分频繁,比如i-node,dentry,这些对象如果每次构建的时候就向内存要一个页(4kb),而其实只有几个字节,这样就会非常浪费,为了解决这个问题,就引入了一种新的机制来处理在同一个页框中如何分配小存储区,而slab可以对小对象进行分配,这样就不用为每一个对象分配页框,从而节省了空间,内核对一些小对象创建析构很频繁,slab对这些小对象进行缓冲,可以重复利用,减少内存分配次数。
5.4 头信息仅显示一次
# vmstat -n
5.5 以表格方式显示事件计数器和内存状态
- # vmstat -s
-
- 8008656 K total memory
- 2198412 K used memory
- 4572020 K active memory
- 2438476 K inactive memory
- 332064 K free memory
- 212700 K buffer memory
- 5265480 K swap cache
- 0 K total swap
- 0 K used swap
- 0 K free swap
- 23236842 non-nice user cpu ticks
- 4704 nice user cpu ticks
- 22491780 system cpu ticks
- 8123700891 idle cpu ticks
- 2666825 IO-wait cpu ticks
- 0 IRQ cpu ticks
- 274843 softirq cpu ticks
- 0 stolen cpu ticks
- 4790784 pages paged in
- 786384320 pages paged out
- 0 pages swapped in
- 0 pages swapped out
- 2665979789 interrupts
- 2264646031 CPU context switches
- 1616497272 boot time
- 70292589 forks
-
- #说明,这些信息的分别来自于/proc/meminfo,/proc/stat和/proc/vmstat。
5.6 查看磁盘的读/写
- # vmstat -d
-
- #每间隔1秒统计一次,总共统计5次
- # vmstat -d 1 5
- disk- ------------reads------------ ------------writes----------- -----IO------
- total merged sectors ms total merged sectors ms cur sec
- vda 261581 944 9569132 5360844 92451702 59872533 1572785921 474771528 0 29522
- sr0 124 0 12436 67 0 0 0 0 0 0
- vda 261581 944 9569132 5360844 92451702 59872533 1572785921 474771528 0 29522
- sr0 124 0 12436 67 0 0 0 0 0 0
- vda 261581 944 9569132 5360844 92451720 59872534 1572786145 474771556 0 29522
- sr0 124 0 12436 67 0 0 0 0 0 0
- vda 261581 944 9569132 5360844 92451722 59872597 1572786665 474771568 0 29522
- sr0 124 0 12436 67 0 0 0 0 0 0
- vda 261581 944 9569132 5360844 92451722 59872597 1572786665 474771568 0 29522
- sr0 124 0 12436 67 0 0 0 0 0 0
5.7 显示指定的硬盘分区状态
- # vmstat -p /dev/vda1
- vda1 reads read sectors writes requested writes
- 261523 9557868 91469637 1572779937
我们知道,直接从物理内存读写数据要比从硬盘读写数据要快的多,因此,我们希望所有数据的读取和写入都在内存完成,而内存是有限的,这样就引出了物理内存与虚拟内存的概念。
物理内存就是系统硬件提供的内存大小,是真正的内存,相对于物理内存,在Linux下还有一个虚拟内存的概念,虚拟内存就是为了满足物理内存的不足而提出的策略,它是利用磁盘空间虚拟出的一块逻辑内存,用作虚拟内存的磁盘空间被称为交换空间(Swap Space)。
作为物理内存的扩展,Linux会在物理内存不足时,使用交换分区的虚拟内存,更详细的说,就是内核会将暂时不用的内存块信息写到交换空间,这样以来,物理内存得到了释放,这块内存就可以用于其它目的,当需要用到原始的内容时,这些信息会被重新从交换空间读入物理内存。
Linux的内存管理采取的是分页存取机制,为了保证物理内存能得到充分的利用,内核会在适当的时候将物理内存中不经常使用的数据块自动交换到虚拟内存中,而将经常使用的信息保留到物理内存。
要深入了解Linux内存运行机制,需要知道下面提到的几个方面:
首先,Linux系统会不时的进行页面交换操作,以保持尽可能多的空闲物理内存,即使并没有什么事情需要内存,Linux也会交换出暂时不用的内存页面。这可以避免等待交换所需的时间。
其次,Linux进行页面交换是有条件的,不是所有页面在不用时都交换到虚拟内存,Linux内核根据”最近最经常使用“算法,仅仅将一些不经常使用的页面文件交换到虚拟内存,有时我们会看到这么一个现象:linux物理内存还有很多,但是交换空间也使用了很多。其实,这并不奇怪,例如,一个占用很大内存的进程运行时,需要耗费很多内存资源,此时就会有一些不常用页面文件被交换到虚拟内存中,但后来这个占用很多内存资源的进程结束并释放了很多内存时,刚才被交换出去的页面文件并不会自动的交换进物理内存,除非有这个必要,那么此刻系统物理内存就会空闲很多,同时交换空间也在被使用,就出现了刚才所说的现象了。关于这点,不用担心什么,只要知道是怎么一回事就可以了。
最后,交换空间的页面在使用时会首先被交换到物理内存,如果此时没有足够的物理内存来容纳这些页面,它们又会被马上交换出去,如此以来,虚拟内存中可能没有足够空间来存储这些交换页面,最终会导致Linux出现假死机、服务异常等问题,Linux虽然可以在一段时间内自行恢复,但是恢复后的系统已经基本不可用了。
因此,合理规划和设计Linux内存的使用,是非常重要的。
虚拟内存原理:
在系统中运行的每个进程都需要使用到内存,但不是每个进程都需要每时每刻使用系统分配的内存空间。当系统运行所需内存超过实际的物理内存,内核会释放某些进程所占用但未使用的部分或所有物理内存,将这部分资料存储在磁盘上直到进程下一次调用,并将释放出的内存提供给有需要的进程使用。
在Linux内存管理中,主要是通过“调页Paging”和“交换Swapping”来完成上述的内存调度。调页算法是将内存中最近不常使用的页面换到磁盘上,把活动页面保留在内存中供进程使用。交换技术是将整个进程,而不是部分页面,全部交换到磁盘上。
分页(Page)写入磁盘的过程被称作Page-Out,分页(Page)从磁盘重新回到内存的过程被称作Page-In。当内核需要一个分页时,但发现此分页不在物理内存中(因为已经被Page-Out了),此时就发生了分页错误(Page Fault)。
当系统内核发现可运行内存变少时,就会通过Page-Out来释放一部分物理内存。经管Page-Out不是经常发生,但是如果Page-out频繁不断的发生,直到当内核管理分页的时间超过运行程式的时间时,系统效能会急剧下降。这时的系统已经运行非常慢或进入暂停状态,这种状态亦被称作thrashing(颠簸)。
本文为joshua317原创文章,转载请注明:转载自joshua317博客 一天一个 Linux 命令(40):vmstat 命令 - joshua317的博客
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。