赞
踩
在Linux操作系统中,CPU在执行一个进程的时候,都会访问内存。但CPU并不是直接访问物理内存地址,而是通过虚拟地址空间来间接的访问物理内存地址。
所谓地址空间,是地址访问可以达到的所有地址的集合,而不是支持这个地址空间的全部硬件。就好比邮政编码是6位,它的地址空间就是 1 0 6 10^6 106个地址,从0到999999。但不表示你需要有这么多个建筑区支持它。32位进程可以发出 2 32 2^{32} 232个地址,比如*ptr=0xNNNNNNN,这个被访问的地址不一定有内存存在,只是说它可以发出这个地址而已。而这个地址对应什么物理内存,这是操作系统给的,给了就有,没给就没有。
物理内存是真实的可见的物理存储器件,就像下面所画的一样,硬件电路通过总线能够一次查找到对应存储单元的值,物理上是高低点位,对应0/1表示。
如下图所示,A2就是第一排第二个存储单元,那么A2就是它的物理地址。假如你的电脑上插了一个8GB的内存条,对应的就有8GB,也就是8589934592个内存单元。再假如现在你的电脑是32位的系统,那么cpu能寻找到每一个内存单元吗?如果能寻找到,那么对于32位操作系统最大的寻址能力是多少呢?对于64位的系统来说呢?这个问题下面解答。
假定没有内存管理单元(MMU)的支持下,对于32位操作系统而言,你给到CPU的地址是32位的,也就是一个long型的数据,所以最大的寻址能力就是 2 3 2 2^32 232,也就是4 GB。所以,对于32位系统而言,你插个8 GB内存是有一半的空间,系统是没法寻找到的,等于浪费。而对于64位系统来说,寻址能力理论上可以达到 2 6 4 2^64 264,但是,处理器所支持的RAM大小地址总线上的管脚限制,早期的Intel处理器只能支持4 GB寻址,从奔腾pro开始才出现了物理地址扩展的机制来支持更大内存空间,所以如果没有这个机制,或者这个机制被关闭,对于手机来说经常如此,那么内存寻址仍然只有4 GB。但是,现代计算机都是会存在MMU的,这是一个硬件电路,能够将一个逻辑地址转换成一个线性地址,也就是虚拟地址。
逻辑地址,就是指机器语言指令中用来指定一个操作数或一条指令的地址,由一个段(segment)和偏移量(offset)组成,说地直白点就是CPU拿到的地址。
线性地址,也就是虚拟地址,是一个32位无符号的整型数,所以虚拟地址空间总共就是4 GB大小。
系统中的每个进程所使用的地址就是线性地址或者说虚拟地址,而不是什么逻辑地址,更不是物理地址,所以对每个独立的进程来说,线性空间大小是4 GB是没有错的,且其中0-1GB的地址空间给予内核访问,其它3GB由每个进程自己访问。
虽然每个进程拥有4G的虚拟地址空间,但显然在它运行的每个小段时间内,它需要访问的都是少量的空间,并且这些空间一般都是地址连续的。如果真的给这个进程分配全部的物理内存,那绝大多数物理内存就浪费了。所以现在一般采用分页的技术(将虚拟地址空间和物理内存划分成固定大小的小块),建立页表,把进程的虚拟地址空间页映射到物理内存的页帧上。这里页表保存的就是映射关系。然后随着进程的运行,就会按需分配页,那些长时间未使用的页帧又会被操作系统回收。(虚拟地址与物理地址的映射,比如将0x123456 映射到 0x345678,这个0x123456就是所谓的虚拟地址,但是这个数字并不需要存,而是该进程运行后产生的一个虚拟地址,真正需要存的是页表,也就是说页表是实实在在占空间的,虚拟地址并不占空间)
那是不是说一个进程就只能访问4GB的物理内存大小呢?答案是否定的,具体访问到哪个物理地址要看MMU将线性地址转换后的物理地址才能知道,所以有可能两个进程的地址同时访问同一个物理地址,这在物理地址很小的情况下是经常会发生的事情。当然,同一时刻,一个物理内存单元只可能由某个进程来访问,至于具体原理,这个MMU来实现的,这里不细讲。
有了MMU,CPU拿到的逻辑地址就可以经过它来找到对应的物理地址了。
MMU有两个硬件电路单元,一个称之为分段单元(segmentation unit)、一个称之为分页单元(paging unit),下面是它的工作原理:
逻 辑 地 址 → 分 段 单 元 → 线 性 地 址 → 分 页 单 元 → 物 理 地 址 逻辑地址\to分段单元\to线性地址\to分页单元\to物理地址 逻辑地址→分段单元→线性地址→分页单元→物理地址
所以,如果系统、CPU、MMU和内存坐在一起,那肯定会发生下面的对话:
系统:CPU我给你个逻辑地址0xff84ed43,你去找到这个人
CPU: 好的系统,我去问问MMU。 MMU,我这里有个地址0xff84ed43,你帮忙找一下
MMU: 好的,请求分段单元,这个地址你先找到他家所在街道的地址
分段单元:报告,已经找到了他家所在的街道地址,地址是0x56ac21fe
MMU:好的,请求分页单元,这个是他家的街道地址,你找到他家住几号。
分页单元:报告,已经找到了,他家具体地址是0x12345678
CPU:谢谢,我这就去找他
通常将虚拟地址空间以512Byte ~ 8K,作为一个单位,称为页,并从0开始依次对每一个页编号。这个大小通常被称为页面
将物理地址按照同样的大小,作为一个单位,称为框或者块,也从0开始依次对每一个框编号。
操作系统通过维护一张表,这张表上记录了每一对页和框的映射关系,如下图所示:
这张表就称为页表。
在windows系统下,页面为4k,这里我们以4k为例。
一个4G虚拟地址空间,将会产生1024*1024个页,页表的每一项存储一个页和一个框的映射,所以,至少需要1M个页表项。如果一个页表项大小为1Byte,则至少需要1M的空间,所以页表被放在物理内存中,由操作系统维护。
当CPU要访问一个虚拟地址空间对应的物理内存地址时,先将具体的虚拟地址A/页面大小4K,结果的商作为页表号,结果的余作为页内地址偏移。
例如:
CPU访问的虚拟地址:A
页面:L
页表号:(A/L)
页内偏移:(A%L)
CPU中有一个页表寄存器,里面存放着当前进程页表的起始地址和页表长度。将上述计算的页表号和页表长度进行对比,确认在页表范围内,然后将页表号和页表项长度相乘,得到目标页相对于页表基地址的偏移量,最后加上页表基地址偏移量就可以访问到相对应的框了,CPU拿到框的起始地址之后,再把页内偏移地址加上,访问到最终的目标地址。如图:
注意,每个进程都有页表,页表起始地址和页表长度的信息在进程不被CPU执行的时候,存放在其PCB内。
按照上述的过程,可以发现,CPU对内存的一次访问动作需要访问两次物理内存才能达到目的,第一次,拿到框的起始地址,第二次,访问最终物理地址。CPU的效率变成了50%。为了提高CPU对内存的访问效率,在CPU第一次访问内存之前,加了一个快速缓冲区寄存器,它里面存放了近期访问过的页表项。当CPU发起一次访问时,先到TLB中查询是否存在对应的页表项,如果有就直接返回了。整个过程只需要访问一次内存。如图:
这种方式极大的提高了CPU对内存的访问效率。将近90%。
然而这样的方式还是存在弊端,在物理内存中需要拿出至少1M的连续的内存空间来存放页表。可以通过多级页表的方式,将页表分为多个部分,分别存放,这样就不要求连续的整段内存,只需要多个连续的小段内存即可。
把连续的页表拆分成多个页表称之为一级页表,再创建一张页表,这张页表记录每一张一级页表的起始地址并按照顺序为其填写页表号。
通过这样的方式,CPU从基地址寄存器中拿到了一级页表的地址,从地址结构中取出一级页表的页表号,找到二级页表的起始物理地址;然后结合地址结构中的中间10位(二级页表上的页表号),可以找到对应的框的起始地址,最后结合页内偏移量,就可以计算出最终目标的物理地址。如图:
上图反应了如下信息:
假设在有三个线性地址 addr1, addr2, addr3 ,分别属于三个线性空间不同部分(0-3G、3G-high_memory、vmalloc_start-vmalloc_end),但是最终都映射到物理页面1:
关于页目录表:
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。