当前位置:   article > 正文

电脑各个硬件的理论知识 经典

计算机硬件著名理论

先从电脑核心开始:


----------------------------------------------------------
cpu:


简介:
  CPU是中央处理单元(Central Process Unit)的缩写,它可以被简称做微处理器。(Microprocessor),不过经常被人们直接称为处理器(processor)。不要因为这些简称而忽视它的作用,CPU是计算机的核心,其重要性好比心脏对于人一样。实际上,处理器的作用和大脑更相似,因为它负责处理、运算计算机内部的所有数据,而主板芯片组则更像是心脏,它控制着数据的交换。CPU的种类决定了你使用的操作系统和相应的软件。CPU主要由运算器、控制器、寄存器组和内部总线等构成,是PC的核心,再配上储存器、输入/输出接口和系统总线组成为完整的PC。


编辑本段CPU的基本结构和功能:
  CPU主要由运算器、控制器、寄存器组和内部总线等构成。寄存器组用于在指令执行过后存放操作数和中间数据,由运算器完成指令所规定的运算及操作。


编辑本段发展历史:
任何东西从发展到壮大都会经历一个过程,CPU能够发展到今天这个规模和成就,其中的发展史更是耐人寻味。作为电脑之“芯”的CPU也不例外,本 文让我们进入时间不长却风云激荡的CPU发展历程中去。在这个回顾的过程中,我们主要叙述了目前两大CPU巨头——Intel和AMD的产品发展历程。 
  一、X86时代的CPU 
  CPU的溯源可以一直去到1971年。在那一年,当时还处在发展阶段的INTEL公司推出了世界上第一台微处理器4004。这不但是第一个用于计算器的4位微处理器,也是第一款个人有能力买得起的电脑处理器!4004含有2300个晶体管,功能相当有限,而且速度还很慢,被当时的蓝色巨人IBM以及大部分商业用户不屑一顾,但是它毕竟是划时代的产品,从此以后,INTEL便与微处理器结下了不解之缘。可以这么说,CPU的历史发展历程其实也就是 INTEL公司X86系列CPU的发展历程,我们就通过它来展开我们的“CPU历史之旅”。 
  1978年,Intel公司再次领导潮流,首次生产出16位的微处理器,并命名为i8086,同时还生产出与之相配合的数学协处理器 i8087,这两种芯片使用相互兼容的指令集,但在i8087指令集中增加了一些专门用于对数、指数和三角函数等数学计算指令。由于这些指令集应用于 i8086和i8087,所以人们也这些指令集统一称之为X86指令集。虽然以后Intel又陆续生产出第二代、第三代等更先进和更快的新型CPU,但都 仍然兼容原来的X86指令,而且Intel在后续CPU的命名上沿用了原先的X86序列,直到后来因商标注册问题,才放弃了继续用阿拉伯数字命名。至于在 后来发展壮大的其他公司,例如AMD和Cyrix等,在486以前(包括486)的CPU都是按Intel的命名方式为自己的X86系列CPU命名,但到 了586时代,市场竞争越来越厉害了,由于商标注册问题,它们已经无法继续使用与Intel的X86系列相同或相似的命名,只好另外为自己的586、 686兼容CPU命名了。 
  1979年,INTEL公司推出了8088芯片,它仍旧是属于16位微处理器,内含29000个晶体管,时钟频率为4.77MHz,地址总线 为20位,可使用1MB内存。8088内部数据总线都是16位,外部数据总线是8位,而它的兄弟8086是16位。1981年8088芯片首次用于IBM PC机中,开创了全新的微机时代。也正是从8088开始,PC机(个人电脑)的概念开始在全世界范围内发展起来。 
  1982年,许多年轻的读者尚在襁褓之中的时候,INTE已经推出了划时代的最新产品枣80286芯片,该芯片比8006和8088都有了飞 跃的发展,虽然它仍旧是16位结构,但是在CPU的内部含有13.4万个晶体管,时钟频率由最初的6MHz逐步提高到20MHz。其内部和外部数据总线皆 为16位,地址总线24位,可寻址16MB内存。从80286开始,CPU的工作方式也演变出两种来:实模式和保护模式。 
  Intel 80286处理器 
  1985年INTEL推出了80386芯片,它是80X86系列中的第一种32位微处理器,而且制造工艺也有了很大的进步,与80286相比, 80386内部内含27.5万个晶体管,时钟频率为12.5MHz,后提高到20MHz,25MHz,33MHz。80386的内部和外部数据总线都是 32位,地址总线也是32位,可寻址高达4GB内存。它除具有实模式和保护模式外,还增加了一种叫虚拟86的工作方式,可以通过同时模拟多个8086处理 器来提供多任务能力。除了标准的80386芯片,也就是我们以前经常说的80386DX外,出于不同的市场和应用考虑,INTEL又陆续推出了一些其它类 型的80386芯片:80386SX、80386SL、80386DL等。1988年推出的80386SX是市场定位在80286和80386DX之间的 一种芯片,其与80386DX的不同在于外部数据总线和地址总线皆与80286相同,分别是16位和24位(即寻址能力为16MB)。 
  1990年推出的80386 SL和80386 DL都是低功耗、节能型芯片,主要用于便携机和节能型台式机。80386 SL与80386 DL的不同在于前者是基于80386SX的,后者是基于80386DX的,但两者皆增加了一种新的工作方式:系统管理方式。当进入系统管理方式后,CPU 就自动降低运行速度、控制显示屏和硬盘等其它部件暂停工作,甚至停止运行,进入“休眠”状态,以达到节能目的。1989年,我们大家耳熟能详的80486 芯片由INTEL推出,这种芯片的伟大之处就在于它实破了100万个晶体管的界限,集成了120万个晶体管。80486的时钟频率从25MHz逐步提高到 33MHz、50MHz。80486是将80386和数学协处理器80387以及一个8KB的高速缓存集成在一个芯片内,并且在80X86系列中首次采用 了RISC(精简指令集)技术,可以在一个时钟周期内执行一条指令。它还采用了突发总线方式,大大提高了与内存的数据交换速度。由于这些改进,80486 的性能比带有80387数学协处理器的80386DX提高了4倍。80486和80386一样,也陆续出现了几种类型。上面介绍的最初类型是 80486DX。1990年推出了80486SX,它是486类型中的一种低价格机型,其与80486DX的区别在于它没有数学协处理器。80486 DX2由系用了时钟倍频技术,也就是说芯片内部的运行速度是外部总线运行速度的两倍,即芯片内部以2倍于系统时钟的速度运行,但仍以原有时钟速度与外界通 讯。80486 DX2的内部时钟频率主要有40MHz、50MHz、66MHz等。80486 DX4也是采用了时钟倍频技术的芯片,它允许其内部单元以2倍或3倍于外部总线的速度运行。为了支持这种提高了的内部工作频率,它的片内高速缓存扩大到 16KB。80486 DX4的时钟频率为100MHz,其运行速度比66MHz的80486 DX2快40%。80486也有SL增强类型,其具有系统管理方式,用于便携机或节能型台式机。 
  Pentium名称的来历 
  在286、386、486这些产品深入人心后,1992年10月20日,在纽约第十届PC用户大会上,葛洛夫正式宣布Intel第五代处理器被命名Pentium,而不是586,出乎许多人预料。 
  事实上,Intel公司对此更名"蓄谋已久"。在此之前,由于386、486系列产品性能出众,AMD与Cyrix生产的处理器也以这些数字命 名,INTEL虽大为不满却又无可奈何,因为按照法律,数字是不能用作商标名称,无法注册。"偏执狂"葛洛夫在一次记者招待会上说:"如果要命名586, 就请从我身上跨过去"--充分显示了Intel管理层重新制定品牌战略的决心。 
  一场极其广泛的命名活动拉开了帷幕。从公司员工脑海中的灵感火花到海外友人集思广益,一共征集到3300多个名称。其中甚至有586NOT、 iCUCyrix等十分有趣滑稽的名字。最后敲定的三个候选名称是InteLigence、RADAR1和Pentium.据说当时 InteLigence的呼声颇高,但后来公司高层对它们的最终投票却使得Pentium脱颖而出。 
  为什么叫这样一个名字?葛洛夫解释说:它是一个来自古典语的商标,PENT在希腊文中表示"5",-ium看上去是某化学元素的词尾,用在这里可以表示处理器的强大处理能力和高速性能。 
  值得注意的是在Pentimu Pro的一个封装中除Pentimu Pro芯片外还包括有一个256KB的二级缓存芯片,两个芯片之间用高频宽的内部通讯总线互连,处理器与高速缓存的连接线路也被安置在该封装中,这样就使 高速缓存能更容易地运行在更高的频率上。奔腾 Pro 200MHZCPU的L2 CACHE就是运行在200MHZ,也就是工作在与处理器相同的频率上。这样的设计领奔腾 Pro达到了最高的性能。 而Pentimu Pro最引人注目的地方是它具有一项称为“动态执行”的创新技术,这是继奔腾在超标量体系结构上实现实破之后的又一次飞跃。Pentimu Pro系列的工作频率是150/166/180/200,一级缓存都是16KB,而前三者都有256KB的二级缓存,至于频率为200的CPU还分为三种 版本,不同就在于他们的内置的缓存分别是256KB,512KB,1MB。不过由于当时缓存技术还没有成熟,加上当时缓存芯片还非常昂贵,因此尽管 Pentimu Pro性能不错,但远没有达到抛离对手的程度,加上价格十分昂贵,一次Pentimu Pro实际上出售的数目非常至少,市场生命也非常的短,Pentimu Pro可以说是Intel第一个失败的产品。 
  2、辉煌的开始——奔腾 MMX: 
  INTEL吸取了奔腾 Pro的教训,在1996年底推出了奔腾系列的改进版本,厂家代号P55C,也就是我们平常所说的奔腾 MMX(多能奔腾)。这款处理器并没有集成当时卖力不讨好的二级缓存,而是独辟蹊径,采用MMX技术去增强性能。 
  MMX技术是INTEL最新发明的一项多媒体增强指令集技术,它的英文全称可以翻译“多媒体扩展指令集”。MMX是Intel公司在1996年为 增强奔腾 CPU在音像、图形和通信应用方面而采取的新技术,为CPU增加了57条MMX指令,除了指令集中增加MMX指令外,还将CPU芯片内的L1缓存由原来的 16KB增加到32KB(16K指命+16K数据),因此MMX CPU比普通CPU在运行含有MMX指令的程序时,处理多媒体的能力上提高了60%左右。MMX技术不但是一个创新,而且还开创了CPU开发的新纪元,后 来的SSE,3D NOW!等指令集也是从MMX发展演变过来的。 
  在Intel推出奔腾 MMX的几个月后,AM也推出了自己研制的新产品K6。K6系列CPU一共有五种频率,分别是:166/200/ 233/266/300,五种型号都采用了66外频,但是后来推出的233/266/300已经可以通过升级主板的BIOS 而支持100外频,所以CPU的性能得到了一个飞跃。特别值得一提的是他们的一级缓存都提高到了64KB,比MMX足足多了一倍,因此它的商业性能甚至还 优于奔腾 MMX,但由于缺少了多媒体扩展指令集这道杀手锏,K6在包括游戏在内的多媒体性能要逊于奔腾 MMX。 
  3、优势的确立——奔腾 Ⅱ: 
  1997年五月,INTEL又推出了和奔腾 Pro同一个级别的产品,也就是影响力最大的CPU——奔腾 Ⅱ。第一代奔腾 Ⅱ核心称为Klamath。作为奔腾Ⅱ的第一代芯片,它运行在66MHz总线上,主频分233、266、300、333Mhz四种,接着又推出 100Mhz总线的奔腾 Ⅱ,频率有300、350、400、450Mhz。奔腾II采用了与奔腾 Pro相同的核心结构,从而继承了原有奔腾 Pro处理器优秀的32位性能,但它加快了段寄存器写操作的速度,并增加了MMX指令集,以加速16位操作系统的执行速度。由于配备了可重命名的段寄存 器,因此奔腾Ⅱ可以猜测地执行写操作,并允许使用旧段值的指令与使用新段值的指令同时存在。在奔腾Ⅱ里面,Intel一改过去BiCMOS制造工艺的笨拙 且耗电量大的双极硬件,将750万个晶体管压缩到一个203平方毫米的印模上。奔腾Ⅱ只比奔腾 Pro大6平方毫米,但它却比奔腾 Pro多容纳了200万个晶体管。由于使用只有0.28微米的扇出门尺寸,因此加快了这些晶体管的速度,从而达到了X86前所未有的时钟速度。 
  Intel奔腾Ⅱ处理器 
  在接口技术方面,为了击跨INTEL的竞争对手,以及获得更加大的内部总线带宽,奔腾Ⅱ首次采用了最新的solt1接口标准,它不再用陶瓷封装, 而是采用了一块带金属外壳的印刷电路板,该印刷电路板不但集成了处理器部件,而且还包括32KB的一级缓存。如要将奔腾Ⅱ处理器与单边插接卡(也称SEC 卡)相连,只需将该印刷电路板(PCB)直接卡在SEC卡上。SEC卡的塑料封装外壳称为单边插接卡盒,也称SEC(Single- edgecontactCartridge)卡盒,其上带有奔腾Ⅱ的标志和奔腾Ⅱ印模的彩色图像。在SEC卡盒中,处理器封装与L2高速缓存和 TagRAM均被接在一个底座(即SEC卡)上,而该底座的一边(容纳处理器核心的那一边)安装有一个铝制散热片,另一边则用黑塑料封起来。奔腾ⅡCPU 内部集合了32KB片内L1高速缓存(16K指令/16K数据);57条MMX指令;8个64位的MMX寄存器。750万个晶体管组成的核心部分,是以 203平方毫米的工艺制造出来的。处理器被固定到一个很小的印刷电路板(PCB)上,对双向的SMP有很好的支持。至于L2高速缓存则有,512K,属于 四路级联片外同步突发式SRAM高速缓存。这些高速缓存的运行速度相当于核心处理器速度的一半(对于一个266MHz的CPU来说,即为133MHz)。 奔腾Ⅱ的这种SEC卡设计是插到Slot1(尺寸大约相当于一个ISA插槽那么大)中。所有的Slot1主板都有一个由两个塑料支架组成的固定机构。一个 SEC卡可以从两个塑料支架之间滑入Slot1中。将该SEC卡插入到位后,就可以将一个散热槽附着到其铝制散热片上。266MHz的奔腾Ⅱ运行起来只比 200MHz的奔腾Pro稍热一些(其功率分别为38.2瓦和37.9瓦),但是由于SEC卡的尺寸较大,奔腾Ⅱ的散热槽几乎相当于Socket7或 Socket8处理器所用的散热槽的两倍那么大。 
  除了用于普通用途的奔腾Ⅱ之外,Intel还推出了用于服务器和高端工作站的Xeon系列处理器采用了Slot 2插口技术,32KB 一级高速缓存,512KB及1MB的二级高速缓存,双重独立总线结构,100MHz系统总线,支持多达8个CPU。
  Intel奔腾Ⅱ Xeon处理器 
  为了对抗不可一世的奔腾 Ⅱ,在1998年中,AMD推出了K6-2处理器,它的核心电压是2.2伏特,所以发热量比较低,一级缓存是64KB,更为重要的是,为了抗衡Intel 的MMX指令集,AMD也开发了自己的多媒体指令集,命名为3DNow!。3DNow!是一组共21条新指 令,可提高三维图形、多媒体、以及浮点运算密集的个人电脑应用程序的运算能力,使三维图形加速器全面地发挥性能。K6-2的所有型号都内置了3DNow! 指令集, 使AMD公司的产品首次在某些程序应用中,在整数性能以及浮点运算性能都同时超越INTEL,让INTEL感觉到了危机。不过和奔腾 Ⅱ相比,K6-2仍然没有集成二级缓存,因此尽管广受好评,但始终没有能在市场占有率上战胜奔腾Ⅱ。 
  4、廉价高性能CPU的开端——Celeron: 
  在以往,个人电脑都是一件相对奢侈的产品,作为电脑核心部件的CPU,价格几乎都以千元来计算,不过随着时代的发展,大批用户急需廉价而使用的家庭电脑,连带对廉价CPU的需求也急剧增长了。 
  在奔腾 Ⅱ又再次获得成功之际,INTEL的头脑开始有点发热,飘飘然了起来,将全部力量都集中在高端市场上,从而给AMD,CYRIX等等公司造成了不少 乘虚而入的机会,眼看着性能价格比不如对手的产品,而且低端市场一再被蚕食,INTEL不能眼看着自己的发家之地就这样落入他人手中,又与1998年全新 推出了面向低端市场,性能价格比相当厉害的CPU——Celeron,赛扬处理器。 
  Celeron可以说是Intel为抢占低端市场而专门推出的,当时1000美元以下PC的热销,令AMD等中小公司在与Intel的抗争中 打了个漂亮的翻身仗,也令Intel如芒刺在背。于是,Intel把奔腾 II的二级缓存和相关电路抽离出来,再把塑料盒子也去掉,再改一个名字,这就是Celeron。中文名称为赛扬处理器。 最初的Celeron采用0.35微米工艺制造,外频为66MHz,主频有266与300两款。接着又出现了0.25微米制造工艺的 Celeron333。 
  不过在开始阶段,Celeron并不很受欢迎,最为人所诟病的是其抽掉了芯片上的L2 Cache,自从在奔腾 Ⅱ尝到甜头以后,大家都知道了二级缓存的重要性,因而想到赛扬其实是一个被阉割了的产品,性能肯定不怎么样。实际应用中也证实了这种想法, Celeron266装在技嘉BX主板上,性能比PII266下降超过25%!而相差最大的就是经常须要用到二级缓存的程序。 
  Intel也很快了解到这个情况,于是随机应变,推出了集成128KB二级缓存的Celeron,起始频率为300Mhz,为了和没有集成二 级缓存的同频Celeron区分,它被命名为Celeron 300A。有一定使用电脑历史的朋友可能都会对这款CPU记忆犹新,它集成的二级缓存容量只有128KB,但它和CPU频率同步,而奔腾 Ⅱ只是CPU频率一半,因此Celeron 300A的性能和同频奔腾 Ⅱ非常接近。更诱人的是,这款CPU的超频性能奇好,大部分都可以轻松达到450Mhz的频率,要知道当时频率最高的奔腾 Ⅱ也只是这个频率,而价格是Celeron 300A的好几倍。这个系列的Celeron出了很多款,最高频率一直到566MHz,才被采用奔腾Ⅲ结构的第二代Celeron所代替。 
  为了降低成本,从Celeron 300A开始,Celeron又重投Socket插座的怀抱,但它不是采用奔腾MMX的Socket7,而是采用了Socket370插座方式,通过 370个针脚与主板相连。从此,Socket370成为Celeron的标准插座结构,直到现在频率1.2Ghz的Celeron CPU也仍然采用这种插座。 
  5、世纪末的辉煌——奔腾III: 
  在99年初,Intel发布了第三代的奔腾处理器——奔腾III,第一批的奔腾III 处理器采用了Katmai内核,主频有450和500Mhz两种,这个内核最大的特点是更新了名为SSE的多媒体指令集,这个指令集在MMX的基础上添加 了70条新指令,以增强三维和浮点应用,并且可以兼容以前的所有MMX程序。 
  不过平心而论,Katmai内核的奔腾III除了上述的SSE指令集以外,吸引人的地方并不多,它仍然基本保留了奔腾II的架构,采用 0.25微米工艺,100Mhz的外频,Slot1的架构,512KB的二级缓存(以CPU的半速运行)因而性能提高的幅度并不大。不过在奔腾III刚上 市时却掀起了很大的热潮,曾经有人以上万元的高价去买第一批的奔腾III。 
  可以大幅提升,从500Mhz开始,一直到1.13Ghz,还有就是超频性能大幅提高,幅度可以达到50%以上。此外它的二级缓存也改为和CPU主频同步,但容量缩小为256KB。 
  除了制程带来的改进以外,部分Coppermine 奔腾III还具备了133Mhz的总线频率和Socket370的插座,为了区分它们,Intel在133Mhz总线的奔腾III型号后面加了个“B”, Socket370插座后面加了个“E”,例如频率为550Mhz,外频为133Mhz的Socket370 奔腾III就被称为550EB。 
  看到Coppermine核心的奔腾III大受欢迎,Intel开始着手把Celeron处理器也转用了这个核心,在2000年中,推出了 Coppermine128核心的Celeron处理器,俗称Celeron2,由于转用了0.18的工艺,Celeron的超频性能又得到了一次飞跃, 超频幅度可以达到100%。 
  6、AMD的绝地反击——Athlon 
  在AMD公司方面,刚开始时为了对抗奔腾III,曾经推出了K6-3处理器。K6-3处理器是三层高速缓存(TriLevel)结构设计,内建有 64K的第一级高速缓存(Level 1)及256K的第二层高速缓存(Level 2),主板上则配置第三级高速缓存(Level 3)。K6-3处理器还支持增强型的3D Now!指令集。由于成本上和成品率方面的问题,K6-3处理器在台式机市场上并不是很成功,因此它逐渐从台式机市场消失,转进笔记本市场。 
  真正让AMD扬眉吐气的是原来代号K7的Athlon处理器。Athlon具备超标量、超管线、多流水线的Risc核心(3Way SuperScalar Risc core),采用0.25微米工艺,集成2,200万个晶体管,Athlon包含了三个解码器,三个整数执行单元(IEU),三个地址生成单元 (AGU),三个多媒体单元(就是浮点运算单元),Athlon可以在同一个时钟周期同时执行三条浮点指令,每个浮点单元都是一个完全的管道。K7包含3 个解码器,由解码器将解码后的macroOPS指令(K7把X86指令解码成macroOPS指令,把长短不一的X86指令转换成长短一致的 macroOPS指令,可以充分发挥RISC核心的威力)送给指令控制单元,指令控制单元能同时控制(保存)72条指令。再把指令送给整数单元或多媒体单 元。整数单元可以同时调度18条指令。每个整数单元都是一个独立的管道,调度单元可以对指令进行分支预测,可以乱序执行。K7的多媒体单元(也叫浮点单 元)有可以重命名的堆栈寄存器,浮点调度单元同时可以调度36条指令,浮点寄存器可以保存88条指令。在三个浮点单元中,有一个加法器,一个乘法器,这两 个单元可以执行MMX指令和3DNow指令。还有一个浮点单元负责数据的装载和保存。由于K7强大的浮点单元,使AMD处理器在浮点上首次超过了 Intel当时的处理器。 
  Athlon内建128KB全速高速缓存(L1 Cache),芯片外部则是1/2时频率、512KB容量的二级高速缓存(L2 Cache),最多可支持到8MB的L2 Cache,大的缓存可进一步提高服务器系统所需要的庞大数据吞吐量。 
  Athlon的封装和外观跟Pentium Ⅱ相似,但Athlon采用的是Slot A接口规格。Slot A接口源于Alpha EV6总线,时钟频率高达200MHz,使峰值带宽达到1.6GB/S,在内存总线上仍然兼容传统的100MHz总线,现这样就保护了用户的投资,也降低 了成本。后来还采用性能更高的DDR SDRAM,这和Intel力推的800MHz RAMBUS的数据吞吐量差不多。EV6总线最高可以支持到400MHz,可以完善的支持多处理器。所以具有天生的优势,要知道Slot1只支持双处理器 而SlotA可支持4处理器。SlotA外观看起来跟传统的Slot1插槽很像,就像Slot1插槽倒转180度一样,但两者在电气规格、总线协议是完全 不兼容的。Slot 1/Socket370的CPU,是无法安装到Slot A插槽的Athlon主板上,反之亦然。 
  编者按:任何东西从发展到壮大都会经历一个过程,CPU能够发展到今天这个规模和成就,其中的发展史更是耐人寻味。作为电脑之“芯”的CPU 也不例外,本文让我们进入时间不长却风云激荡的CPU发展历程中去。在这个回顾的过程中,我们主要叙述了目前两大CPU巨头——Intel和AMD的产品 发展历程,对于其他的CPU公司,例如Cyrix和IDT等,因为其产品我们极少见到,篇幅所限我们就不再累述了。 
  三、踏入新世纪的CPU 
  进入新世纪以来,CPU进入了更高速发展的时代,以往可望而不可及的1Ghz大关被轻松突破了,在市场分布方面,仍然是Intel跟AMD公司在 两雄争霸,它们分别推出了Pentium4、Tualatin核心Pentium Ⅱ和Celeron、Tunderbird核心Athlon、AthlonXP和Duron等处理器,竞争日益激烈。 
  1、在Intel方面,在上个世纪末的2000年11月,Intel发布了旗下第四代的Pentium处理器,也就是我们天天都能接触到的 Pentium 4。Pentium 4没有沿用PIII的架构,而是采用了全新的设计,包括等效于的400MHz前端总线

 (1):内存:


内存简介:
在计算机的组成结构中,有一个很重要的部分,就是存储器。存储器是用来存储程序和数据的部件,对于计算机来说,有了存储器,才有记忆功能,才能保证正常工作。存储器的种类很多,按其用途可分为主存储器和辅助存储器,主存储器又称内存储器(简称内存)。

内存是电脑中的主要部件,它是相对于外存而言的。我们平常使用的程序,如Windows操作系统、打字软件、游戏软件等,一般都是安装在硬盘等外存上的,但仅此是不能使用其功能的,必须把它们调入内存中运行,才能真正使用其功能,我们平时输入一段文字,或玩一个游戏,其实都是在内存中进行的。通常我们把要永久保存的、大量的数据存储在外存上,而把一些临时的或少量的数据和程序放在内存上。


内存概述:
内存就是存储程序以及数据的地方,比如当我们在使用WPS处理文稿时,当你在键盘上敲入字符时,它就被存入内存中,当你选择存盘时,内存中的数据才会被存入硬(磁)盘。在进一步理解它之前,还应认识一下它的物理概念。

内存一般采用半导体存储单元,包括随机存储器(RAM),只读存储器(ROM),以及高速缓存(CACHE)。只不过因为RAM是其中最重要的存储器。S(synchronous)DRAM 同步动态随机存取存储器:SDRAM为168脚,这是目前PENTIUM及以上机型使用的内存。SDRAM将CPU与RAM通过一个相同的时钟锁在一起,使CPU和RAM能够共享一个时钟周期,以相同的速度同步工作,每一个时钟脉冲的上升沿便开始传递数据,速度比EDO内存提高50%。DDR(DOUBLE DATA RAGE)RAM :SDRAM的更新换代产品,他允许在时钟脉冲的上升沿和下降沿传输数据,这样不需要提高时钟的频率就能加倍提高SDRAM的速度。

●只读存储器(ROM)

ROM表示只读存储器(Read Only Memory),在制造ROM的时候,信息(数据或程序)就被存入并永久保存。这些信息只能读出,一般不能写入,即使机器掉电,这些数据也不会丢失。ROM一般用于存放计算机的基本程序和数据,如BIOS ROM。其物理外形一般是双列直插式(DIP)的集成块。

●随机存储器(RAM)

随机存储器(Random Access Memory)表示既可以从中读取数据,也可以写入数据。当机器电源关闭时,存于其中的数据就会丢失。我们通常购买或升级的内存条就是用作电脑的内存,内存条(SIMM)就是将RAM集成块集中在一起的一小块电路板,它插在计算机中的内存插槽上,以减少RAM集成块占用的空间。目前市场上常见的内存条有256M/条、512M/条、1G/条等。

●高速缓冲存储器(Cache)

Cache也是我们经常遇到的概念,它位于CPU与内存之间,是一个读写速度比内存更快的存储器。当CPU向内存中写入或读出数据时,这个数据也被存储进高速缓冲存储器中。当CPU再次需要这些数据时,CPU就从高速缓冲存储器读取数据,而不是访问较慢的内存,当然,如需要的数据在Cache中没有,CPU会再去读取内存中的数据。

●物理存储器和地址空间

物理存储器和存储地址空间是两个不同的概念。但是由于这两者有十分密切的关系,而且两者都用B、KB、MB、GB来度量其容量大小,因此容易产生认识上的混淆。初学者弄清这两个不同的概念,有助于进一步认识内存储器和用好内存储器。

物理存储器是指实际存在的具体存储器芯片。如主板上装插的内存条和装载有系统的BIOS的ROM芯片,显示卡上的显示RAM芯片和装载显示BIOS的ROM芯片,以及各种适配卡上的RAM芯片和ROM芯片都是物理存储器。

存储地址空间是指对存储器编码(编码地址)的范围。所谓编码就是对每一个物理存储单元(一个字节)分配一个号码,通常叫作“编址”。分配一个号码给一个存储单元的目的是为了便于找到它,完成数据的读写,这就是所谓的“寻址”(所以,有人也把地址空间称为寻址空间)。

地址空间的大小和物理存储器的大小并不一定相等。举个例子来说明这个问题:某层楼共有17个房间,其编号为801~817。这17个房间是物理的,而其地址空间采用了三位编码,其范围是800~899共100个地址,可见地址空间是大于实际房间数量的。

对于386以上档次的微机,其地址总线为32位,因此地址空间可达2的32次方,即4GB。但实际上我们所配置的物理存储器通常只有1MB、2MB、4MB、8MB、16MB、32MB等,远小于地址空间所允许的范围。

好了,现在可以解释为什么会产生诸如:常规内存、保留内存、上位内存、高端内存、扩充内存和扩展内存等不同内存类型。


内存概念:
各种内存概念

这里需要明确的是,我们讨论的不同内存的概念是建立在寻址空间上的。

IBM推出的第一台PC机采用的CPU是8088芯片,它只有20根地址线,也就是说,它的地址空间是1MB。 
PC机的设计师将1MB中的低端640KB用作RAM,供DOS及应用程序使用,高端的384KB则保留给ROM、视频适配卡等系统使用。从此,这个界限便被确定了下来并且沿用至今。低端的640KB就被称为常规内存即PC机的基本RAM区。保留内存中的低128KB是显示缓冲区,高64KB是系统BIOS(基本输入/输出系统)空间,其余192KB空间留用。从对应的物理存储器来看,基本内存区只使用了512KB芯片,占用0000至80000这512KB地址。显示内存区虽有128KB空间,但对单色显示器(MDA卡)只需4KB就足够了,因此只安装4KB的物理存储器芯片,占用了B0000至B10000这4KB的空间,如果使用彩色显示器(CGA卡)需要安装16KB的物理存储器,占用B8000至BC000这16KB的空间,可见实际使用的地址范围都小于允许使用的地址空间。

在当时(1980年末至1981年初)这么“大”容量的内存对PC机使用者来说似乎已经足够了,但是随着程序的不断增大,图象和声音的不断丰富,以及能访问更大内存空间的新型CPU相继出现,最初的PC机和MS-DOS设计的局限性变得越来越明显。

●1.什么是扩充内存?

到1984年,即286被普遍接受不久,人们越来越认识到640KB的限制已成为大型程序的障碍,这时,Intel和Lotus,这两家硬、软件的杰出代表,联手制定了一个由硬件和软件相结合的方案,此方法使所有PC机存取640KB以上RAM成为可能。而Microsoft刚推出Windows不久,对内存空间的要求也很高,因此它也及时加入了该行列。

在1985年初,Lotus、Intel和Microsoft三家共同定义了LIM-EMS,即扩充内存规范,通常称EMS为扩充内存。当时,EMS需要一个安装在I/O槽口的内存扩充卡和一个称为EMS的扩充内存管理程序方可使用。但是I/O插槽的地址线只有24位(ISA总线),这对于386以上档次的32位机是不能适应的。所以,现在已很少使用内存扩充卡。现在微机中的扩充内存通常是用软件如DOS中的EMM386把扩展内存模拟或扩充内存来使用。所以,扩充内存和扩展内存的区别并不在于其物理存储器的位置,而在于使用什么方法来读写它。下面将作进一步介绍。

前面已经说过扩充存储器也可以由扩展存储器模拟转换而成。EMS的原理和XMS不同,它采用了页帧方式。页帧是在1MB空间中指定一块64KB空间(通常在保留内存区内,但其物理存储器来自扩展存储器),分为4页,每页16KB。EMS存储器也按16KB分页,每次可交换4页内容,以此方式可访问全部EMS存储器。符合EMS的驱动程序很多,常用的有EMM386.EXE、QEMM、TurboEMS、386MAX等。DOS和Windows中都提供了EMM386.EXE。

●2.什么是扩展内存?

我们知道,286有24位地址线,它可寻址16MB的地址空间,而386有32位地址线,它可寻址高达4GB的地址空间,为了区别起见,我们把1MB以上的地址空间称为扩展内存XMS(eXtend memory)。

在386以上档次的微机中,有两种存储器工作方式,一种称为实地址方式或实方式,另一种称为保护方式。在实方式下,物理地址仍使用20位,所以最大寻址空间为1MB,以便与8086兼容。保护方式采用32位物理地址,寻址范围可达4GB。DOS系统在实方式下工作,它管理的内存空间仍为1MB,因此它不能直接使用扩展存储器。为此,Lotus、Intel、AST及Microsoft公司建立了MS-DOS下扩展内存的使用标准,即扩展内存规范XMS。我们常在Config.sys文件中看到的Himem.sys就是管理扩展内存的驱动程序。

扩展内存管理规范的出现迟于扩充内存管理规范。

●3.什么是高端内存区?

在实方式下,内存单元的地址可记为:

段地址:段内偏移

通常用十六进制写为XXXX:XXXX。实际的物理地址由段地址左移4位再和段内偏移相加而成。若地址各位均为1时,即为FFFF:FFFF。其实际物理地址为:FFF0+FFFF=10FFEF,约为1088KB(少16字节),这已超过1MB范围进入扩展内存了。这个进入扩展内存的区域约为64KB,是1MB以上空间的第一个64KB。我们把它称为高端内存区HMA(High Memory Area)。HMA的物理存储器是由扩展存储器取得的。因此要使用HMA,必须要有物理的扩展存储器存在。此外HMA的建立和使用还需要XMS驱动程序HIMEM.SYS的支持,因此只有装入了HIMEM.SYS之后才能使用HMA。

●4.什么是上位内存?

为了解释上位内存的概念,我们还得回过头看看保留内存区。保留内存区是指640KB~1024KB(共384KB)区域。这部分区域在PC诞生之初就明确是保留给系统使用的,用户程序无法插足。但这部分空间并没有充分使用,因此大家都想对剩余的部分打主意,分一块地址空间(注意:是地址空间,而不是物理存储器)来使用。于是就得到了又一块内存区域UMB。

UMB(Upper Memory Blocks)称为上位内存或上位内存块。它是由挤占保留内存中剩余未用的空间而产生的,它的物理存储器仍然取自物理的扩展存储器,它的管理驱动程序是EMS驱动程序。

●5.什么是SHADOW(影子)内存?

对于细心的读者,可能还会发现一个问题:即是对于装有1MB或1MB以上物理存储器的机器,其640KB~1024KB这部分物理存储器如何使用的问题。由于这部分地址空间已分配为系统使用,所以不能再重复使用。为了利用这部分物理存储器,在某些386系统中,提供了一个重定位功能,即把这部分物理存储器的地址重定位为1024KB~1408KB。这样,这部分物理存储器就变成了扩展存储器,当然可以使用了。但这种重定位功能在当今高档机器中不再使用,而把这部分物理存储器保留作为Shadow存储器。Shadow存储器可以占据的地址空间与对应的ROM是相同的。Shadow由RAM组成,其速度大大高于ROM。当把ROM中的内容(各种BIOS程序)装入相同地址的Shadow RAM中,就可以从RAM中访问BIOS,而不必再访问ROM。这样将大大提高系统性能。因此在设置CMOS参数时,应将相应的Shadow区设为允许使用(Enabled)。

●6、什么是奇/偶校验?

奇/偶校验(ECC)是数据传送时采用的一种校正数据错误的一种方式,分为奇校验和偶校验两种。

如果是采用奇校验,在传送每一个字节的时候另外附加一位作为校验位,当实际数据中“1”的个数为偶数的时候,这个校验位就是“1”,否则这个校验位就是“0”,这样就可以保证传送数据满足奇校验的要求。在接收方收到数据时,将按照奇校验的要求检测数据中“1”的个数,如果是奇数,表示传送正确,否则表示传送错误。

同理偶校验的过程和奇校验的过程一样,只是检测数据中“1”的个数为偶数。
●1.什么是CL延迟?
CL反应时间是衡定内存的另一个标志。CL是CAS Latency的缩写,指的是内存存取数据所需的延迟时间,简单的说,就是内存接到CPU的指令后的反应速度。一般的参数值是2和3两种。数字越小,代表反应所需的时间越短。在早期的PC133内存标准中,这个数值规定为3,而在Intel重新制订的新规范中,强制要求CL的反应时间必须为2,这样在一定程度上,对于内存厂商的芯片及PCB的组装工艺要求相对较高,同时也保证了更优秀的品质。因此在选购品牌内存时,这是一个不可不察的因素。
还有另的诠释:内存延迟基本上可以解释成是系统进入数据进行存取操作就绪状态前等待内存响应的时间。 
打个形象的比喻,就像你在餐馆里用餐的过程一样。你首先要点菜,然后就等待服务员给你上菜。同样的道理,内存延迟时间设置的越短,电脑从内存中读取数据的速度也就越快,进而电脑其他的性能也就越高。这条规则双双适用于基于英特尔以及AMD处理器的系统中。由于没有比2-2-2-5更低的延迟,因此国际内存标准组织认为以现在的动态内存技术还无法实现0或者1的延迟。 
通常情况下,我们用4个连着的阿拉伯数字来表示一个内存延迟,例如2-2-2-5。其中,第一个数字最为重要,它表示的是CAS Latency,也就是内存存取数据所需的延迟时间。第二个数字表示的是RAS-CAS延迟,接下来的两个数字分别表示的是RAS预充电时间和Act-to-Precharge延迟。而第四个数字一般而言是它们中间最大的一个。

总结

经过上面分析,内存储器的划分可归纳如下:

●基本内存 占据0~640KB地址空间。 
●保留内存 占据640KB~1024KB地址空间。分配给显示缓冲存储器、各适配卡上的ROM和系统ROM BIOS,剩余空间可作上位内存UMB。UMB的物理存储器取自物理扩展存储器。此范围的物理RAM可作为Shadow RAM使用。 
●上位内存(UMB) 利用保留内存中未分配使用的地址空间建立,其物理存储器由物理扩展存储器取得。UMB由EMS管理,其大小可由EMS驱动程序设定。 
●高端内存(HMA) 扩展内存中的第一个64KB区域(1024KB~1088KB)。由HIMEM.SYS建立和管理。 
●XMS内存 符合XMS规范管理的扩展内存区。其驱动程序为HIMEM.SYS。 
●EMS内存 符合EMS规范管理的扩充内存区。其驱动程序为EMM386.EXE等。 
内存:随机存储器(RAM),主要存储正在运行的程序和要处理的数据。


内存频率:
内存主频和CPU主频一样,习惯上被用来表示内存的速度,它代表着该内存所能达到的最高工作频率。内存主频是以MHz(兆赫)为单位来计量的。内存主频越高在一定程度上代表着内存所能达到的速度越快。内存主频决定着该内存最高能在什么样的频率正常工作。目前较为主流的内存频率室333MHz和400MHz的DDR内存,以及533MHz和667MHz的DDR2内存。

大家知道,计算机系统的时钟速度是以频率来衡量的。晶体振荡器控制着时钟速度,在石英晶片上加上电压,其就以正弦波的形式震动起来,这一震动可以通过晶片的形变和大小记录下来。晶体的震动以正弦调和变化的电流的形式表现出来,这一变化的电流就是时钟信号。而内存本身并不具备晶体振荡器,因此内存工作时的时钟信号是由主板芯片组的北桥或直接由主板的时钟发生器提供的,也就是说内存无法决定自身的工作频率,其实际工作频率是由主板来决定的。

DDR内存和DDR2内存的频率可以用工作频率和等效频率两种方式表示,工作频率是内存颗粒实际的工作频率,但是由于DDR内存可以在脉冲的上升和下降沿都传输数据,因此传输数据的等效频率是工作频率的两倍;而DDR2内存每个时钟能够以四倍于工作频率的速度读/写数据,因此传输数据的等效频率是工作频率的四倍。例如DDR 200/266/333/400的工作频率分别是100/133/166/200MHz,而等效频率分别是200/266/333/400MHz;DDR2 400/533/667/800的工作频率分别是100/133/166/200MHz,而等效频率分别是400/533/667/800MHz。


内存发展:
在计算机诞生初期并不存在内存条的概念,最早的内存是以磁芯的形式排列在线路上,每个磁芯与晶体管理组成的一个双稳态电路作为一比特(BIT)的存储器,每一比特都要有玉米粒大小,可以想象,一间的机房只能装下不超过百k字节左右的容量。后来才出线现了焊接在主板上集成内存芯片,以内存芯片的形式为计算机的运算提供直接支持。那时的内存芯片容量都特别小,最常见的莫过于256K×1bit、1M×4bit,虽然如此,但这相对于那时的运算任务来说却已经绰绰有余了。

内存条的诞生

内存芯片的状态一直沿用到286初期,鉴于它存在着无法拆卸更换的弊病,这对于计算机的发展造成了现实的阻碍。有鉴于此,内存条便应运而生了。将内存芯片焊接到事先设计好的印刷线路板上,而电脑主板上也改用内存插槽。这样就把内存难以安装和更换的问题彻底解决了。

在80286主板发布之前,内存并没有被世人所重视,这个时候的内存是直接固化在主板上,而且容量只有64 ~256KB,对于当时PC所运行的工作程序来说,这种内存的性能以及容量足以满足当时软件程序的处理需要。不过随着软件程序和新一代80286硬件平台的出现,程序和硬件对内存性能提出了更高要求,为了提高速度并扩大容量,内存必须以独立的封装形式出现,因而诞生了“内存条”概念。

在80286主板刚推出的时候,内存条采用了SIMM(Single In-lineMemory Modules,单边接触内存模组)接口,容量为30pin、256kb,必须是由8 片数据位和1 片校验位组成1 个bank,正因如此,我们见到的30pin SIMM一般是四条一起使用。自1982年PC进入民用市场一直到现在,搭配80286处理器的30pin SIMM 内存是内存领域的开山鼻祖。

随后,在1988 ~1990 年当中,PC 技术迎来另一个发展高峰,也就是386和486时代,此时CPU 已经向16bit 发展,所以30pin SIMM 内存再也无法满足需求,其较低的内存带宽已经成为急待解决的瓶颈,所以此时72pin SIMM 内存出现了,72pin SIMM支持32bit快速页模式内存,内存带宽得以大幅度提升。72pin SIMM内存单条容量一般为512KB ~2MB,而且仅要求两条同时使用,由于其与30pin SIMM 内存无法兼容,因此这个时候PC业界毅然将30pin SIMM 内存淘汰出局了。

EDO DRAM(Extended Date Out RAM,外扩充数据模式存储器)内存,这是1991 年到1995 年之间盛行的内存条,EDO-RAM同FP DRAM极其相似,它取消了扩展数据输出内存与传输内存两个存储周期之间的时间间隔,在把数据发送给CPU的同时去访问下一个页面,故而速度要比普通DRAM快15~30%。工作电压为一般为5V,带宽32bit,速度在40ns以上,其主要应用在当时的486及早期的Pentium电脑上。

在1991 年到1995 年中,让我们看到一个尴尬的情况,那就是这几年内存技术发展比较缓慢,几乎停滞不前,所以我们看到此时EDO RAM有72 pin和168 pin并存的情况,事实上EDO 内存也属于72pin SIMM 内存的范畴,不过它采用了全新的寻址方式。EDO 在成本和容量上有所突破,凭借着制作工艺的飞速发展,此时单条EDO 内存的容量已经达到4 ~16MB 。由于Pentium及更高级别的CPU数据总线宽度都是64bit甚至更高,所以EDO RAM与FPM RAM都必须成对使用。

SDRAM时代

自Intel Celeron系列以及AMD K6处理器以及相关的主板芯片组推出后,EDO DRAM内存性能再也无法满足需要了,内存技术必须彻底得到个革新才能满足新一代CPU架构的需求,此时内存开始进入比较经典的SDRAM时代。

第一代SDRAM 内存为PC66 规范,但很快由于Intel 和AMD的频率之争将CPU外频提升到了100MHz,所以PC66内存很快就被PC100内存取代,接着133MHz 外频的PIII以及K7时代的来临,PC133规范也以相同的方式进一步提升SDRAM 的整体性能,带宽提高到1GB/sec以上。由于SDRAM 的带宽为64bit,正好对应CPU 的64bit 数据总线宽度,因此它只需要一条内存便可工作,便捷性进一步提高。在性能方面,由于其输入输出信号保持与系统外频同步,因此速度明显超越EDO 内存。

不可否认的是,SDRAM 内存由早期的66MHz,发展后来的100MHz、133MHz,尽管没能彻底解决内存带宽的瓶颈问题,但此时CPU超频已经成为DIY用户永恒的话题,所以不少用户将品牌好的PC100品牌内存超频到133MHz使用以获得CPU超频成功,值得一提的是,为了方便一些超频用户需求,市场上出现了一些PC150、PC166规范的内存。

尽管SDRAM PC133内存的带宽可提高带宽到1064MB/S,加上Intel已经开始着手最新的Pentium 4计划,所以SDRAM PC133内存不能满足日后的发展需求,此时,Intel为了达到独占市场的目的,与Rambus联合在PC市场推广Rambus DRAM内存(称为RDRAM内存)。与SDRAM不同的是,其采用了新一代高速简单内存架构,基于一种类RISC(Reduced Instruction Set Computing,精简指令集计算机)理论,这个理论可以减少数据的复杂性,使得整个系统性能得到提高。

在AMD与Intel的竞争中,这个时候是属于频率竞备时代,所以这个时候CPU的主频在不断提升,Intel为了盖过AMD,推出高频PentiumⅢ以及Pentium 4 处理器,因此Rambus DRAM内存是被Intel看着是未来自己的竞争杀手锏,Rambus DRAM内存以高时钟频率来简化每个时钟周期的数据量,因此内存带宽相当出色,如PC 1066 1066 MHz 32 bits带宽可达到4.2G Byte/sec,Rambus DRAM曾一度被认为是Pentium 4 的绝配。

尽管如此,Rambus RDRAM 内存生不逢时,后来依然要被更高速度的DDR“掠夺”其宝座地位,在当时,PC600、PC700的Rambus RDRAM 内存因出现Intel820 芯片组“失误事件”、PC800 Rambus RDRAM因成本过高而让Pentium 4平台高高在上,无法获得大众用户拥戴,种种问题让Rambus RDRAM胎死腹中,Rambus曾希望具有更高频率的PC1066 规范RDRAM来力挽狂澜,但最终也是拜倒在DDR 内存面前。

DDR时代

DDR SDRAM(Dual Date Rate SDRAM)简称DDR,也就是“双倍速率SDRAM“的意思。DDR可以说是SDRAM的升级版本, DDR在时钟信号上升沿与下降沿各传输一次数据,这使得DDR的数据传输速度为传统SDRAM的两倍。由于仅多采用了下降缘信号,因此并不会造成能耗增加。至于定址与控制信号则与传统SDRAM相同,仅在时钟上升缘传输。

DDR 内存是作为一种在性能与成本之间折中的解决方案,其目的是迅速建立起牢固的市场空间,继而一步步在频率上高歌猛进,最终弥补内存带宽上的不足。第一代DDR200 规范并没有得到普及,第二代PC266 DDR SRAM(133MHz时钟×2倍数据传输=266MHz带宽)是由PC133 SDRAM内存所衍生出的,它将DDR 内存带向第一个高潮,目前还有不少赛扬和AMD K7处理器都在采用DDR266规格的内存,其后来的DDR333内存也属于一种过度,而DDR400内存成为目前的主流平台选配,双通道DDR400内存已经成为800FNB处理器搭配的基本标准,随后的DDR533 规范则成为超频用户的选择对象。

DDR2时代

随着CPU 性能不断提高,我们对内存性能的要求也逐步升级。不可否认,紧紧依高频率提升带宽的DDR迟早会力不从心,因此JEDEC 组织很早就开始酝酿DDR2 标准,加上LGA775接口的915/925以及最新的945等新平台开始对DDR2内存的支持,所以DDR2内存将开始演义内存领域的今天。

DDR2 能够在100MHz 的发信频率基础上提供每插脚最少400MB/s 的带宽,而且其接口将运行于1.8V 电压上,从而进一步降低发热量,以便提高频率。此外,DDR2 将融入CAS、OCD、ODT 等新性能指标和中断指令,提升内存带宽的利用率。从JEDEC组织者阐述的DDR2标准来看,针对PC等市场的DDR2内存将拥有400、533、667MHz等不同的时钟频率。高端的DDR2内存将拥有800、1000MHz两种频率。DDR-II内存将采用200-、220-、240-针脚的FBGA封装形式。最初的DDR2内存将采用0.13微米的生产工艺,内存颗粒的电压为1.8V,容量密度为512MB。

内存技术在2005年将会毫无悬念,SDRAM为代表的静态内存在五年内不会普及。QBM与RDRAM内存也难以挽回颓势,因此DDR与DDR2共存时代将是铁定的事实。 
PC-100的“接班人”除了PC一133以外,VCM(VirXual Channel Memory)也是很重
要的一员。VCM即“虚拟通道存储器”,这也是目前大多数较新的芯片组支持的一种内存标准,VCM内存主要根据由NEC公司开发的一种“缓存式DRAM”技术制造而成,它集成了“通道缓存”,由高速寄存器进行配置和控制。在实现高速数据传输的同时,VCM还维持着对传统SDRAM的高度兼容性,所以通常也把VCM内存称为VCM SDRAM。VCM与SDRAM的差别在于不论是否经过CPU处理的数据,都可先交于VCM进行处理,而普通的SDRAM就只能处理经CPU处理以后的数据,所以VCM要比SDRAM处理数据的速度快20%以上。目前可以支持VCM SDRAM的芯片组很多,包括:Intel的815E、VIA的694X等。
3.RDRAM
Intel在推出:PC-100后,由于技术的发展,PC-100内存的800MB/s带宽已经不能满足需求,而PC-133的带宽提高并不大(1064MB/s),同样不能满足日后的发展需求。Intel为了达到独占市场的目的,与Rambus公司联合在PC市场推广Rambus DRAM(DirectRambus DRAM),如图4-3所示。
Rambus DRAM是:Rambus公司最早提出的一种内存规格,采用了新一代高速简单内存架构,基于一种RISC(Reduced Instruction Set Computing,精简指令集计算机)理论,从而可以减少数据的复杂性,使得整个系统性能得到提高。Rambus使用400MHz的16bit总线,在一个时钟周期内,可以在上升沿和下降沿的同时传输数据,这样它的实际速度就为400MHz×2=800MHz,理论带宽为(16bit×2×400MHz/8)1.6GB/s,相当于PC-100的两倍。另外,Rambus也可以储存9bit字节,额外的一比特是属于保留比特,可能以后会作为:ECC(ErroI·Checking and Correction,错误检查修正)校验位。Rambus的时钟可以高达400MHz,而且仅使用了30条铜线连接内存控制器和RIMM(Rambus In-line MemoryModules,Rambus内嵌式内存模块),减少铜线的长度和数量就可以降低数据传输中的电磁干扰,从而快速地提高内存的工作频率。不过在高频率下,其发出的热量肯定会增加,因此第一款Rambus内存甚至需要自带散热风扇。

DDR3时代

DDR3相比起DDR2有更高的工作电压, 从DDR2的1.8V降落到1.5V,性能更好更为省电;DDR2的4bit预读升级为8bit预读。DDR3目前最高能够1600Mhz的速度,由于目前最为快速的DDR2内存速度已经提升到800Mhz/1066Mhz的速度,因而首批DDR3内存模组将会从1333Mhz的起跳。在Computex大展我们看到多个内存厂商展出1333Mhz的DDR3模组。 
一、DDR3在DDR2基础上采用的新型设计:

1.8bit预取设计,而DDR2为4bit预取,这样DRAM内核的频率只有接口频率的1/8,DDR3-800的核心工作频率只有100MHz。 
2.采用点对点的拓朴架构,以减轻地址/命令与控制总线的负担。 
3.采用100nm以下的生产工艺,将工作电压从1.8V降至1.5V,增加异步重置(Reset)与ZQ校准功能。


内存区别:
DDR2与DDR的区别

与DDR相比,DDR2最主要的改进是在内存模块速度相同的情况下,可以提供相当于DDR内存两倍的带宽。这主要是通过在每个设备上高效率使用两个DRAM核心来实现的。作为对比,在每个设备上DDR内存只能够使用一个DRAM核心。技术上讲,DDR2内存上仍然只有一个DRAM核心,但是它可以并行存取,在每次存取中处理4个数据而不是两个数据。

与双倍速运行的数据缓冲相结合,DDR2内存实现了在每个时钟周期处理多达4bit的数据,比传统DDR内存可以处理的2bit数据高了一倍。DDR2内存另一个改进之处在于,它采用FBGA封装方式替代了传统的TSOP方式。
然而,尽管DDR2内存采用的DRAM核心速度和DDR的一样,但是我们仍然要使用新主板才能搭配DDR2内存,因为DDR2的物理规格和DDR是不兼容的。首先是接口不一样,DDR2的针脚数量为240针,而DDR内存为184针;其次,DDR2内存的VDIMM电压为1.8V,也和DDR内存的2.5V不同。

DDR2的定义:

DDR2(Double Data Rate 2) SDRAM是由JEDEC(电子设备工程联合委员会)进行开发的新生代内存技术标准,它与上一代DDR内存技术标准最大的不同就是,虽然同是采用了在时钟的上升/下降延同时进行数据传输的基本方式,但DDR2内存却拥有两倍于上一代DDR内存预读取能力(即:4bit数据读预取)。换句话说,DDR2内存每个时钟能够以4倍外部总线的速度读/写数据,并且能够以内部控制总线4倍的速度运行。

此外,由于DDR2标准规定所有DDR2内存均采用FBGA封装形式,而不同于目前广泛应用的TSOP/TSOP-II封装形式,FBGA封装可以提供了更为良好的电气性能与散热性,为DDR2内存的稳定工作与未来频率的发展提供了坚实的基础。回想起DDR的发展历程,从第一代应用到个人电脑的DDR200经过DDR266、DDR333到今天的双通道DDR400技术,第一代DDR的发展也走到了技术的极限,已经很难通过常规办法提高内存的工作速度;随着Intel最新处理器技术的发展,前端总线对内存带宽的要求是越来越高,拥有更高更稳定运行频率的DDR2内存将是大势所趋。

DDR2与DDR的区别:

在了解DDR2内存诸多新技术前,先让我们看一组DDR和DDR2技术对比的数据。

1、延迟问题:
从上表可以看出,在同等核心频率下,DDR2的实际工作频率是DDR的两倍。这得益于DDR2内存拥有两倍于标准DDR内存的4BIT预读取能力。换句话说,虽然DDR2和DDR一样,都采用了在时钟的上升延和下降延同时进行数据传输的基本方式,但DDR2拥有两倍于DDR的预读取系统命令数据的能力。也就是说,在同样100MHz的工作频率下,DDR的实际频率为200MHz,而DDR2则可以达到400MHz。

这样也就出现了另一个问题:在同等工作频率的DDR和DDR2内存中,后者的内存延时要慢于前者。举例来说,DDR 200和DDR2-400具有相同的延迟,而后者具有高一倍的带宽。实际上,DDR2-400和DDR 400具有相同的带宽,它们都是3.2GB/s,但是DDR400的核心工作频率是200MHz,而DDR2-400的核心工作频率是100MHz,也就是说DDR2-400的延迟要高于DDR400。

2、封装和发热量:
DDR2内存技术最大的突破点其实不在于用户们所认为的两倍于DDR的传输能力,而是在采用更低发热量、更低功耗的情况下,DDR2可以获得更快的频率提升,突破标准DDR的400MHZ限制。

DDR内存通常采用TSOP芯片封装形式,这种封装形式可以很好的工作在200MHz上,当频率更高时,它过长的管脚就会产生很高的阻抗和寄生电容,这会影响它的稳定性和频率提升的难度。这也就是DDR的核心频率很难突破275MHZ的原因。而DDR2内存均采用FBGA封装形式。不同于目前广泛应用的TSOP封装形式,FBGA封装提供了更好的电气性能与散热性,为DDR2内存的稳定工作与未来频率的发展提供了良好的保障。

DDR2内存采用1.8V电压,相对于DDR标准的2.5V,降低了不少,从而提供了明显的更小的功耗与更小的发热量,这一点的变化是意义重大的。

DDR2采用的新技术:
除了以上所说的区别外,DDR2还引入了三项新的技术,它们是OCD、ODT和Post CAS。

OCD(Off-Chip Driver):也就是所谓的离线驱动调整,DDR II通过OCD可以提高信号的完整性。DDR II通过调整上拉(pull-up)/下拉(pull-down)的电阻值使两者电压相等。使用OCD通过减少DQ-DQS的倾斜来提高信号的完整性;通过控制电压来提高信号品质。

ODT:ODT是内建核心的终结电阻器。我们知道使用DDR SDRAM的主板上面为了防止数据线终端反射信号需要大量的终结电阻。它大大增加了主板的制造成本。实际上,不同的内存模组对终结电路的要求是不一样的,终结电阻的大小决定了数据线的信号比和反射率,终结电阻小则数据线信号反射低但是信噪比也较低;终结电阻高,则数据线的信噪比高,但是信号反射也会增加。因此主板上的终结电阻并不能非常好的匹配内存模组,还会在一定程度上影响信号品质。DDR2可以根据自己的特点内建合适的终结电阻,这样可以保证最佳的信号波形。使用DDR2不但可以降低主板成本,还得到了最佳的信号品质,这是DDR不能比拟的。

Post CAS:它是为了提高DDR II内存的利用效率而设定的。在Post CAS操作中,CAS信号(读写/命令)能够被插到RAS信号后面的一个时钟周期,CAS命令可以在附加延迟(Additive Latency)后面保持有效。原来的tRCD(RAS到CAS和延迟)被AL(Additive Latency)所取代,AL可以在0,1,2,3,4中进行设置。由于CAS信号放在了RAS信号后面一个时钟周期,因此ACT和CAS信号永远也不会产生碰撞冲突。


总的来说,DDR2采用了诸多的新技术,改善了DDR的诸多不足,虽然它目前有成本高、延迟慢能诸多不足,但相信随着技术的不断提高和完善,这些问题终将得到解决。

DDR3与DDR2几个主要的不同之处 :

1.突发长度(Burst Length,BL) 
由于DDR3的预取为8bit,所以突发传输周期(Burst Length,BL)也固定为8,而对于DDR2和早期的DDR架构系统,BL=4也是常用的,DDR3为此增加了一个4bit Burst Chop(突发突变)模式,即由一个BL=4的读取操作加上一个BL=4的写入操作来合成一个BL=8的数据突发传输,届时可通过A12地址线来控制这一突发模式。而且需要指出的是,任何突发中断操作都将在DDR3内存中予以禁止,且不予支持,取而代之的是更灵活的突发传输控制(如4bit顺序突发)。 
2.寻址时序(Timing) 
就像DDR2从DDR转变而来后延迟周期数增加一样,DDR3的CL周期也将比DDR2有所提高。DDR2的CL范围一般在2~5之间,而DDR3则在5~11之间,且附加延迟(AL)的设计也有所变化。DDR2时AL的范围是0~4,而DDR3时AL有三种选项,分别是0、CL-1和CL-2。另外,DDR3还新增加了一个时序参数——写入延迟(CWD),这一参数将根据具体的工作频率而定。 
3.DDR3新增的重置(Reset)功能 
重置是DDR3新增的一项重要功能,并为此专门准备了一个引脚。DRAM业界很早以前就要求增加这一功能,如今终于在DDR3上实现了。这一引脚将使DDR3的初始化处理变得简单。当Reset命令有效时,DDR3内存将停止所有操作,并切换至最少量活动状态,以节约电力。 
在Reset期间,DDR3内存将关闭内在的大部分功能,所有数据接收与发送器都将关闭,所有内部的程序装置将复位,DLL(延迟锁相环路)与时钟电路将停止工作,而且不理睬数据总线上的任何动静。这样一来,将使DDR3达到最节省电力的目的。 
4.DDR3新增ZQ校准功能 
ZQ也是一个新增的脚,在这个引脚上接有一个240欧姆的低公差参考电阻。这个引脚通过一个命令集,通过片上校准引擎(On-Die Calibration Engine,ODCE)来自动校验数据输出驱动器导通电阻与ODT的终结电阻值。当系统发出这一指令后,将用相应的时钟周期(在加电与初始化之后用512个时钟周期,在退出自刷新操作后用256个时钟周期、在其他情况下用64个时钟周期)对导通电阻和ODT电阻进行重新校准。

5.参考电压分成两个 
在DDR3系统中,对于内存系统工作非常重要的参考电压信号VREF将分为两个信号,即为命令与地址信号服务的VREFCA和为数据总线服务的VREFDQ,这将有效地提高系统数据总线的信噪等级。 
6.点对点连接(Point-to-Point,P2P) 
这是为了提高系统性能而进行的重要改动,也是DDR3与DDR2的一个关键区别。在DDR3系统中,一个内存控制器只与一个内存通道打交道,而且这个内存通道只能有一个插槽,因此,内存控制器与DDR3内存模组之间是点对点(P2P)的关系(单物理Bank的模组),或者是点对双点(Point-to-two-Point,P22P)的关系(双物理Bank的模组),从而大大地减轻了地址/命令/控制与数据总线的负载。而在内存模组方面,与DDR2的类别相类似,也有标准DIMM(台式PC)、SO-DIMM/Micro-DIMM(笔记本电脑)、FB-DIMM2(服务器)之分,其中第二代FB-DIMM将采用规格更高的AMB2(高级内存缓冲器)。 
面向64位构架的DDR3显然在频率和速度上拥有更多的优势,此外,由于DDR3所采用的根据温度自动自刷新、局部自刷新等其它一些功能,在功耗方面DDR3也要出色得多,因此,它可能首先受到移动设备的欢迎,就像最先迎接DDR2内存的不是台式机而是服务器一样。在CPU外频提升最迅速的PC台式机领域,DDR3未来也是一片光明。目前Intel预计在明年第二季所推出的新芯片-熊湖(Bear Lake),其将支持DDR3规格,而AMD也预计同时在K9平台上支持DDR2及DDR3两种规格。


内存异步工作模式包含多种意义,在广义上凡是内存工作频率与CPU的外频不一致时都可以称为内存异步工作模式。首先,最早的内存异步工作模式出现在早期的主板芯片组中,可以使内存工作在比CPU外频高33MHz或者低33MHz的模式下(注意只是简单相差33MHz),从而可以提高系统内存性能或者使老内存继续发挥余热。其次,在正常的工作模式(CPU不超频)下,目前不少主板芯片组也支持内存异步工作模式,例如Intel 910GL芯片组,仅仅只支持533MHz FNB即133MHz的CPU外频,但却可以搭配工作频率为133MHz的DDR 266、工作频率为166MHz的DDR 333和工作频率为200MHz的DDR 400正常工作(注意此时其CPU外频133MHz与DDR 400的工作频率200MHz已经相差66MHz了),只不过搭配不同的内存其性能有差异罢了。再次,在CPU超频的情况下,为了不使内存拖CPU超频能力的后腿,此时可以调低内存的工作频率以便于超频,例如AMD的Socket 939接口的Opteron 144非常容易超频,不少产品的外频都可以轻松超上300MHz,而此如果在内存同步的工作模式下,此时内存的等效频率将高达DDR 600,这显然是不可能的,为了顺利超上300MHz外频,我们可以在超频前在主板BIOS中把内存设置为DDR 333或DDR 266,在超上300MHz外频之后,前者也不过才DDR 500(某些极品内存可以达到),而后者更是只有DDR 400(完全是正常的标准频率),由此可见,正确设置内存异步模式有助于超频成功。

目前的主板芯片组几乎都支持内存异步,英特尔公司从810系列到目前较新的875系列都支持,而威盛公司则从693芯片组以后全部都提供了此功能。


内存品牌:
比较知名,而且耳熟能详的
现代(HY)
个人认为,原厂现代和三星内存是目前兼容性和稳定性最好的内存条,其比许多广告吹得生猛的内存条要来得实在得多,此外,现代"Hynix(更专业的称呼是海力士半导体Hynix Semiconductor Inc.)"的D43等颗粒也是目前很多高频内存所普遍采用的内存芯片。目前,市场上超值的现代高频条有现代原厂DDR500内存,采用了TSOP封装的HY5DU56822CT-D5内存芯片,其性价比很不错。

金士顿(Kingston)
作为世界第一大内存生产厂商的Kingston,其金士顿内存产品在进入中国市场以来,就凭借优秀的产品质量和一流的售后服务,赢得了众多中国消费者的心。
不过Kingston虽然作为世界第一大内存生产厂商,然而Kingston品牌的内存产品,其使用的内存颗粒确是五花八门,既有Kingston自己颗粒的产品,更多的则是现代(Hynix)、三星(Samsung)、南亚(Nanya)、华邦(Winbond)、英飞凌(Infinoen)、美光(Micron)等等众多厂商的内存颗粒。
Kingston的高频内存有采用"Hynix"D43颗粒和Winbond的内存颗粒的金士顿DDR400、DDR433-DDR500内存等,其分属ValueRam系列(经济型)和HyperX系列。
Kingston的ValueRam系列,价格与普通的DDR400一样,但其可以超频到DDR500使用。而Kingston的HyperX系列其超频性也不错,Kingston 500MHz的HyperX超频内存(HyperX PC4000)有容量256MB、512MB单片包装与容量512MB与1GB双片的包装上市,其电压为2.6伏特,采用铝制散热片加强散热,使用三星K4H560838E-TCCC芯片,在DDR400下的CAS值为2.5,DDR500下的CAS值为3,所以性能也一般。


胜创(Kingmax)
成立于1989年的胜创科技有限公司是一家名列中国台湾省前200强的生产企业(Commonwealth Magazine,May 2000),同时也是内存模组的引领生产厂商。
通过严格的质量控制和完善的研发实力,胜创科技获得了ISO-9001证书,同时和IT行业中最优秀的企业建立了合作伙伴关系。公司以不断创新的设计工艺和追求完美的信念生产出了高性能的尖端科技产品,不断向移动计算领域提供价廉物美的最出色的内存模组。
在SDRAM时期,Kingmax就曾成功的建造了PC150帝国,开启了内存产品的高速时代,也奠定了Kingmax在内存领域领先的地位。而今DDR来了,从266到300,再到现在的500,Kingmax始终保持着领先的位置,继续引领着内存发展的方向。说到KingMax内存,就不能不说到它独特的 “TinyBGA”封装技术专利——作为全球领先的DRAM生产厂商,胜创科技在1997年宣布了第一款基于TinyBGA封装技术的内存模组,这项屡获殊荣的封装技术能以同样的体积大小封装3倍于普通技术所达到的内存容量。同时,胜创科技还研制了为高端服务器和工作站应用设计的1GB StackBGA模组、为DDR应用设计的FBGA模组以及为Rambus RIMM应用设计的速度高达1.6GB/秒的flip-chip BGA/DCA模组。 
Kingmax胜创推出的低价版的DDR433内存产品,该产品采用传统的TSOP封装内存芯片,工作频率433MHz。Kingmax推出的这个SuperRam PC3500系列的售价和PC3200处于同一档次,这为那些热衷超频又手头不宽裕的用户提供了一个不错的选择。此外,Kingmax也推出了CL-3的DDR500内存产品,其性能和其它厂家的同类产品大同小异。

宇瞻(Apacer)
在内存市场,Apacer一直以来都有着较好的声誉,其SDRAM时代的WBGA封装也响彻一时,在DDR内存上也树立了良好形象。宇瞻科技隶属宏基集团,实力非常雄厚。初期专注于内存模组行销,并已经成为全球前四大内存模组供应商之一。据权威人士透露,在国际上,宇瞻的品牌知名度以及产品销量与目在前国内排名第一的品牌持平甚至超过,之所以在国内目前没有坐到龙头位置,是因为宇瞻对于品牌宣传一直比较低调,精力更多投入到产品研发生产而不是品牌推广当中。 
最近,宇瞻相应推出的"宇瞻金牌内存"系列。宇瞻金牌内存产品线特别为追求高稳定性、高兼容性的内存用户而设计。宇瞻金牌内存坚持使用100%原厂测试颗粒(决不使用OEM颗粒)是基于现有最新的DDR内存技术标准设计而成,经过ISO 9002认证之工厂完整流程生产制造。采用20微米金手指高品质6层PCB板,每条内存都覆盖有美观精质的黄金色金属铭牌,而且通过了最高端的Advantest测试系统检测后,采用高速SMT机台打造,经过高低压、高低温、长时间的密封式空间严苛测试,并经过全球知名系统及主板大厂完全兼容性测试,品质与兼容性都得到最大限度的保证。 
宇瞻的DDR500内存(PC4000内存)采用金黄色的散热片和绿色的PCB板搭配。金属散热片的材质相当不错,在手中有种沉甸甸的感觉,为了防止氧化,其表面被镀成了金色。内存颗粒方面,这款内存采用了三星的内存颗粒,具体型号为:K4H560838E-TCC5,为32Mx8规格DDR466@CL=3的TSOPII封装颗粒,标准工作电压2.6V+-0.1V,标准运行时序CL-tRCD-tRP为3-4-4。在DDR500下其CL值为3,性能将就。

金邦(Geil)
金邦科技股份有限公司是世界上专业的内存模块制造商之一。全球第一家也是唯一家以汉字注册的内存品牌,并以中文命名的产品"金邦金条"、"千禧条GL2000"迅速进入国内市场,在极短的时间内达到行业销量遥遥领先。第一支"量身订做,终身保固"记忆体模组的内存品牌,首推"量身订做"系列产品,使计算机进入最优化状态。在联合电子设备工程委员会JEDEC尚未通过DDR400标准的情况下,率先推出第一支"DDR400"并成功于美国上市。
金邦高性能、高品质和高可靠性的内存产品,引起业界和传媒的广泛关注。在过去几年中,金邦内存多次荣获国内权威杂志评为读者首选品牌和编辑选择奖,稳夺国内存储器市场占有率三强。
金邦的Geil Platinum系列的DDR500内存(PC4000),采用TSOPII封装,使用了纯铜内存散热片,可较妥善的解决内存的散热问题。采用六层低电磁干扰PCB板设计;单条容量256MB,在内存芯片上做了整体打磨并上打上了Geil的印记,"号称"使用了4ns的内存芯片,但仍可以看出其是采用Hynix的内存颗粒。额定工作频率可达500MHz,在内存参数方面这是默认为CL3,可达CL2.5。除此而外,其还有金条PC4200(DDR533)等款产品。

威刚(ADATA)
威刚的高频内存有DDR450、460、500等。Adata DDR500是一款价格适宜的DDR500产品,CAS值为3,其没有使用散热片,在芯片上的标签显示了Adata ID号,但是,建议不用,因为毕竟没用散热片,所以使用寿命较短。

 

(2):硬盘

硬盘概述:
硬盘是电脑主要的存储媒介之一,由一个或者多个铝制或者玻璃制的碟片组成。这些碟片外覆盖有铁磁性材料。绝大多数硬盘都是固定硬盘,被永久性地密封固定在硬盘驱动器中。


硬盘发展:
从第一块硬盘RAMAC的问世到现在单碟容量高达250GB多的硬盘,硬盘也经历了几代的发展,以下是其发展历史。 
1.1956年9月,IBM的一个工程小组向世界展示了第一台磁盘存储系统IBM 350 RAMAC(Random Access Method of Accounting and Control),其磁头可以直接移动到盘片上的任何一块存储区域,从而成功地实现了随机存储,这套系统的总容量只有5MB,共使用了50个直径为24英寸的磁盘,这些盘片表面涂有一层磁性物质,它们被叠起来固定在一起,绕着同一个轴旋转。此款RAMAC当时主要应用于飞机预约、自动银行、医学诊断及太空领域。 
2.1968年IBM公司首次提出“温彻斯特/Winchester”技术,探讨对硬盘技术做重大改造的可能性。“温彻斯特”技术的精隋是:“密封、固定并高速旋转的镀磁盘片,磁头沿盘片径向移动,磁头悬浮在高速转动的盘片上方,而不与盘片直接接触”,这也是现代绝大多数硬盘的原型。 
3.1973年IBM公司制造出第一台采用“温彻期特”技术的硬盘,从此硬盘技术的发展有了正确的结构基础。它的容量为60MB,转速略低于3000RPM,采用4张14英寸盘片,存储密度为每平方英寸1.7MB。
4.1979年,IBM再次发明了薄膜磁头,为进一步减小硬盘体积、增大容量、提高读写速度提供了可能。 
5.80年代末期IBM发明的MR(Magneto Resistive)磁阻是对硬盘技术发展的又一项重大贡献,这种磁头在读取数据时对信号变化相当敏感,使得盘片的存储密度比以往每英寸20MB提高了数十倍。 
6.1991年IBM生产的3.5英寸的硬盘使用了MR磁头,使硬盘的容量首次达到了1GB,从此硬盘容量开始进入了GB数量级。
7.1999年9月7日,Maxtor宣布了首块单碟容量高达10.2GB的ATA硬盘,从而把硬盘的容量引入了一个新的里程碑。 
8.2000年2月23日,希捷发布了转速高达15,000RPM的Cheetah X15系列硬盘,其平均寻道时间仅3.9ms,它也是到目前为止转速最高的硬盘;其性能相当于阅读一整部Shakespeare只花.15秒。此系列产品的内部数据传输率高达48MB/s,数据缓存为4~16MB,支持Ultra160/m SCSI及Fibre Channel(光纤通道) ,这将硬盘外部数据传输率提高到了160MB~200MB/s。总得来说,希捷的此款("捷豹")Cheetah X15系列将硬盘的性能提升到了一个全新的高度。
9.2000年3月16日,硬盘领域又有新突破,第一款“玻璃硬盘”问世,这就是IBM推出的Deskstar 75GXP及Deskstar 40GV,此两款硬盘均使用玻璃取代传统的铝作为盘片材料,这能为硬盘带来更大的平滑性及更高的坚固性。另外玻璃材料在高转速时具有更高的稳定性。此外Deskstar 75GXP系列产品的最高容量达75GB,而Deskstar 40GV的数据存储密度则高达14.3 十亿数据位/每平方英寸,这再次刷新数据存储密度世界记录。
10.以下是近年来关于硬盘价格的趣味数字
1995年 200MB~400MB 大于4000元/GB
1996年 1.2GB~2.1GB 1500元~2000/GB
1998年 1.2GB~2.1GB 200元~250元/GB
2000年 4.3GB~6.4GB 40元/GB
2002年 10GB~20GB 20元/GB
2004年 40GB~80GB 6.9元/GB
2005年 80GB~160GB 4.5元/GB 
2006年 80GB~250GB 3.8元/GB
2008年 160GB~1TB 1.6元/GB 

未来的发展趋势

希捷存储新技术:2009年出2500G硬盘
  硬盘记录密度越大就可以实现越大的磁盘容量,希捷最近发布的160GB 5400rpm 2.5英寸
垂直纪录笔记本硬盘的纪录密度是每平方英寸135Gbits,东芝最新展示的2.5英寸硬盘每平
方英寸纪录密度是188Gbits,而在加州硅谷的IDEMA DiSKON展会上,希捷展示了1种磁记录
设备,每平方英寸可以纪录421Gbits数据!
  希捷CEO Bill Watkins表示,在纪录密度上的突破将开启数字革命,硬盘在各种存储需
求上可以持续保持领先优势。根据希捷的新闻稿,希捷宣称采用421Gbits/平方英寸密度制
造的1.8英寸硬盘可以容纳275GB数据,2.5英寸硬盘可以容纳500GB数据,而全尺寸的3.5英
寸硬盘则可以容纳2.5TB数据,预计希捷将在2009年拿出全尺寸3.5英寸2.5TB容量的硬盘。


日立2010年推5000G硬盘 等同半个人脑存储量 
  据国外媒体报道,日立日前宣布,将于2010年推出5TB(5000G)硬盘,从而向新兴的固态
硬盘发起挑战。 
  如今,固态硬盘逐渐蚕食传统硬盘业务, 尤其是在笔记本电脑市场。但是,这并不意
味着传统硬盘将从此退出历史舞台。 
硬盘专家日立的做法是,尽可能提升硬盘的存储空间。据悉,日立计划于2010年推出5TB 
3.5英寸商用硬盘。该硬盘采用了电流正交平面垂直巨磁阻(CPP-GMR)技术,使每平方英寸的
存储密度达到1TB。 
  至于5TB的硬盘能够存储多少内容, 日立高管Yoshihiro Shiroishi称:“到2010年,2
块硬盘的存储量就与人类大脑的存储量相当。

 

硬盘接口:
IDE,俗称PATA并口
SATA(Serial ATA)接口,它作为一种新型硬盘接口技术于2000年初由intel公司率先提出。虽然与传统并行ata存储设备相比,sata硬盘有着无可比拟的优势。而磁盘系统的真正串行化是先从主板方面开始的,早在串行硬盘正式投放市场以前,主板的sata接口就已经就绪了。但在intel ich5、sis964以及via vt8237这些真正支持sata的南桥芯片出现以前,主板的sata接口是通过第三方芯片实现的。这些芯片主要是siliconimage的sil 3112和promise的pdc20375及pdc20376,它们基于pci总线,部分产品还做成专门的pci raid控制卡。
SATA2,希捷在SATA的基础上加入NCQ本地命令阵列技术,并提高了磁盘速率。
SCSI,希捷在服务器上使用的接口,可以热插拔
SAS(Serial ATA SCSI)希捷在高端服务器上的接口。
硬盘品牌
希捷旗下的酷鱼Barracuda、迈拓金钻Maxtor Diamond
是硬盘的最佳选择,性能最稳定,技术最领先,速率最快,价格略高
西部数据,旗下的鱼子酱
是节能的选择,性能中规中矩,价格便宜
日立,原IBM硬盘部,价格便宜,但稳定性欠佳,且噪音大,建议不要选择
三星,主要提供笔记本硬盘

 

硬盘保养:

硬盘作为电脑各配件中非常耐用的设备之一,保养好的话一般可以用上个6~7年,下面给大家说一说怎样正确保养硬盘。 
硬盘的保养要分两个方面,首先从硬件的角度看,特别是那些超级电脑DIY的玩家要注意以下问题。他们通常是不用机箱的,把电脑都摆在桌面一方面有利于散热,一方面便于拆卸方便,而这样损坏硬件的几率大大提高,特别是硬盘,因为当硬盘开始工作时,一般都处于高速旋转之中,放在桌面上没有固定,不稳定是最容易导致磁头与盘片猛烈摩擦而损坏硬盘。还有就是要防止电脑使用时温度过高,过高的温度不仅会影响硬盘的正常工作,还可能会导致硬盘受到损伤。 
温度过高将影响薄膜式磁头的数据读取灵敏度,会使晶体振荡器的时钟主频发生改变,还会造成硬盘电路元件失灵,磁介质也会因热胀效应而造成记录错误。 
温度过高不适宜,过低的温度也会影响硬盘的工作。所以在空调房内也应注意不要把空调的温度降得太多,这样会产生水蒸气,损毁硬盘。一般,室温保持在20~25℃为宜。接下来我们谈谈使用过程中硬盘的问题。 
很多朋友在使用电脑是都没有养成好习惯,用完电脑,关机时还没有等电脑完全关机就拔掉了电源,还有人在用完电脑时直接关上开关,硬盘此时还没有复位,所以关机时一定要注意面板上的硬盘指示灯是否还在闪烁,只有当硬盘指示灯停止闪烁、硬盘结束读写后方可关闭计算机的电源开关,养成用电脑的好习惯。 
有的朋友十分注意硬盘的保养,但是由于操作不得当,也会对硬盘造成一定程度的伤害。 
一些人看到报刊上讲要定期整理硬盘上的信息,而他就没有体会到定期二字,每天用完电脑后都整理一遍硬盘,认为这样可以提高速度,但他不知这样便加大了了硬盘的使用率,久而久之硬盘不但达不到效果,适得其反。 
当然,如果您的硬盘长期不整理也是不行的,如果碎片积累了很多的话,那么我们日后在访问某个文件时,硬盘可能会需要花费很长的时间读取该文件,不但访问效率下降,而且还有可能损坏磁道。我们经常遇到的问题还不止这些。 
还有就是有些朋友复制文件的时候,总是一次复制好几个文件,而换来的是硬盘的惨叫。要“定期”对硬盘进行杀毒,比如CIH会破坏硬盘的分区表,导致你的宝贵“财富”丢失。不要使用系统工具中的硬盘压缩技术,现在的硬盘非常大了,没有必要去节省那点硬盘空间,何况这样带来的是硬盘的读写数据大大地减慢了,同时也不知不觉影响了硬盘的寿命。 
由此可见,养成良好的使用电脑的习惯是非常重要的,它会直接影响到电脑甚至硬盘的寿命。慢慢养成习惯,这样才能保证您的电脑长时间为您效力。


硬盘是微机系统中最常用、最重要的存储设备之一,也是故障机率较高的设备之一。而来自硬盘本身的故障一般都很小,主要是人为因素或使用者未根据硬盘特点采取切实可行的维护措施所致。因此,硬盘在使用中必须加以正确维护,否则会出现故障或缩短使用寿命,甚至造成数据丢失,给工作和生活带来不可挽回的损失和不便。
一、防震。硬盘是十分精密的存储设备,工作时磁头在盘片表面的浮动高度只有几微米。不工作时,磁头与盘片是接触的;硬盘在进行读写操作时,一旦发生较大的震动,就可能造成磁头与数据区相撞击,导致盘片数据区损坏或划盘,甚至丢失硬盘内的文件信息。因此在工作时或关机后,主轴电机尚未停机之前,严禁搬运电脑或移动硬盘,以免磁头与盘片产生撞击而擦伤盘片表面的磁层。在硬盘的安装、拆御过程中更要加倍小心,严禁摇晃、磕碰。 
二、防尘。操作环境中灰尘过多,会被吸附到电路板的表面及主轴电机的内部,硬盘在较潮湿的环境中工作,会使绝缘电阻下降,轻则引起工作不稳定,重则使某些电子器件损坏。用户不能自行拆开硬盘盖,否则空气中的灰尘便进入盘内,磁头读/写操作时将划伤盘片或磁头。因此硬盘出现故障时决不允许在普通条件下拆开盘体外壳螺钉。 
三、硬盘读写时切忌断电。硬盘进行读写时,硬盘处于高速旋转状态中,如Quantum(昆腾)的Fireball(火球)系列3.5英寸硬盘,转速达到每分钟4500周,而GRANDPRIX系列大容量硬盘则高达每分钟7200周;在硬盘如此高速旋转时,忽然关掉电源,将导致磁头与盘片猛烈磨擦,从而损坏硬盘,所以在关机时,一定要注意面板上的硬盘指示灯,确保硬盘完成读写之后才关机。 
四、防病毒。计算机病毒对硬盘中存贮的信息是一个很大的威胁,所以应利用版本较新的抗病毒软件对硬盘进行定期的病毒检测,发现病毒,应立即采取办法去清除,尽量避免对硬盘进行格式化,因为硬盘格式化会丢失全部数据并减少硬盘的使用寿命。当从外来软盘拷贝信息到硬盘时,先要对软盘进行病毒检查,防止硬盘由此染上病毒,破坏盘内数据信息。 
五、防高温。硬盘的主轴电机、步进电机及其驱动电路工作时都要发热,在使用中要严格控制环境温度,微机操作室内最好配备空调,将温度调节在20-25℃。在炎热的夏季,要注意监测硬盘周围的环境温度不要超出产品许可的最高温度(一般为40℃)。 
六、防磁场。磁场是损毁硬盘数据的隐形杀手,因此,要尽可能地使硬盘不靠近强磁场,如音箱、喇叭、电机、电台等,以免硬盘里所记录的数据因磁化而受到破坏。 
七、定期整理硬盘。硬盘的整理包括两方面的内容:一是根目录的整理,二是硬盘碎块的整理。根目录一般存放系统文件和子目录文件,如COMMAND.COM、CONFIG.SYS、AUTO执行.BAT等个别文件,不要存放其它文件;DOS、Windows等操作系统,文字处理系统及其他应用软件都应该分别建立一个子目录存放。一个清晰、整洁的目录结构会为你的工作带来方便,同时也避免了软件的重复放置及"垃圾文件"过多浪费硬盘空间,影响运行速度。硬度在使用一段时间后,文件的反复存放、删除,往往会使许多文件,尤其是大文件在硬盘上占用的扇区不连续,看起来就象一个个碎块,硬盘上碎块过多会极大地影响硬盘的速度,甚至造成死机或程序不能正常运行,MS DOS6.0以上版本都提供了硬盘整理程序DEFRAG,Windows/9X也提供了"磁盘碎片整理程序"。在日常使用过程中,不妨定期整理整理,它将使你的电脑系统性能达到最佳。

 

硬盘的物理结构:

1、磁头
磁头是硬盘中最昂贵的部件,也是硬盘技术中最重要和最关键的一环。传统的磁头是读写合一的电磁感应式磁头,但是,硬盘的读、写却是两种截然不同的操作,为此,这种二合一磁头在设计时必须要同时兼顾到读/写两种特性,从而造成了硬盘设计上的局限。而MR磁头(Magnetoresistive heads),即磁阻磁头,采用的是分离式的磁头结构:写入磁头仍采用传统的磁感应磁头(MR磁头不能进行写操作),读取磁头则采用新型的MR磁头,即所谓的感应写、磁阻读。这样,在设计时就可以针对两者的不同特性分别进行优化,以得到最好的读/写性能。另外,MR磁头是通过阻值变化而不是电流变化去感应信号幅度,因而对信号变化相当敏感,读取数据的准确性也相应提高。而且由于读取的信号幅度与磁道宽度无关,故磁道可以做得很窄,从而提高了盘片密度,达到200MB/英寸2,而使用传统的磁头只能达到20MB/英寸2,这也是MR磁头被广泛应用的最主要原因。目前,MR磁头已得到广泛应用,而采用多层结构和磁阻效应更好的材料制作的GMR磁头(Giant Magnetoresistive heads)也逐渐普及。
2、磁道
当磁盘旋转时,磁头若保持在一个位置上,则每个磁头都会在磁盘表面划出一个圆形轨迹,这些圆形轨迹就叫做磁道。这些磁道用肉眼是根本看不到的,因为它们仅是盘面上以特殊方式磁化了的一些磁化区,磁盘上的信息便是沿着这样的轨道存放的。相邻磁道之间并不是紧挨着的,这是因为磁化单元相隔太近时磁性会相互产生影响,同时也为磁头的读写带来困难。一张1.44MB的3.5英寸软盘,一面有80个磁道,而硬盘上的磁道密度则远远大于此值,通常一面有成千上万个磁道。
3、扇区
磁盘上的每个磁道被等分为若干个弧段,这些弧段便是磁盘的扇区,每个扇区可以存放512个字节的信息,磁盘驱动器在向磁盘读取和写入数据时,要以扇区为单位。1.44MB3.5英寸的软盘,每个磁道分为18个扇区。
4、柱面
硬盘通常由重叠的一组盘片构成,每个盘面都被划分为数目相等的磁道,并从外缘的“0”开始编号,具有相同编号的磁道形成一个圆柱,称之为磁盘的柱面。磁盘的柱面数与一个盘面上的磁道数是相等的。由于每个盘面都有自己的磁头,因此,盘面数等于总的磁头数。所谓硬盘的CHS,即Cylinder(柱面)、Head(磁头)、Sector(扇区),只要知道了硬盘的CHS的数目,即可确定硬盘的容量,硬盘的容量=柱面数*磁头数*扇区数*512B。

 

硬盘的逻辑结构
[编辑本段]


 1. 硬盘参数释疑
  到目前为止, 人们常说的硬盘参数还是古老的 CHS(Cylinder/Head/Sector)参数。那么为什么要使用这些参数,它们的意义是什么?它们的取值范围是什么?

  很久以前, 硬盘的容量还非常小的时候,人们采用与软盘类似的结构生产硬盘。也就是硬盘盘片的每一条磁道都具有相同的扇区数。由此产生了所谓的3D参数 (Disk Geometry). 既磁头数(Heads),柱面数(Cylinders),扇区数(Sectors),以及相应的寻址方式。
  其中:
  磁头数(Heads)表示硬盘总共有几个磁头,也就是有几面盘片, 最大为 255 (用 8 个二进制位存储);
  柱面数(Cylinders) 表示硬盘每一面盘片上有几条磁道,最大为 1023(用 10 个二进制位存储);
  扇区数(Sectors) 表示每一条磁道上有几个扇区, 最大为 63(用 6个二进制位存储);
  每个扇区一般是 512个字节, 理论上讲这不是必须的,但好像没有取别的值的。
  所以磁盘最大容量为:
  255 * 1023 * 63 * 512 / 1048576 = 7.837 GB ( 1M =1048576 Bytes )或硬盘厂商常用的单位:
  255 * 1023 * 63 * 512 / 1000000 = 8.414 GB ( 1M =1000000 Bytes )
在 CHS 寻址方式中,磁头,柱面,扇区的取值范围分别为 0到 Heads - 1。0 到 Cylinders - 1。 1 到 Sectors (注意是从 1 开始)。
 2. 基本 Int 13H 调用简介
BIOS Int 13H 调用是 BIOS提供的磁盘基本输入输出中断调用,它可以完成磁盘(包括硬盘和软盘)的复位,读写,校验,定位,诊,格式化等功能。它使用的就是 CHS 寻址方式, 因此最大识能访问 8 GB 左右的硬盘 (本文中如不作特殊说明,均以 1M = 1048576 字节为单位)。
 3. 现代硬盘结构简介
  在老式硬盘中,由于每个磁道的扇区数相等,所以外道的记录密度要远低于内道, 因此会浪费很多磁盘空间 (与软盘一样)。为了解决这一问题,进一步提高硬盘容量,人们改用等密度结构生产硬盘。也就是说,外圈磁道的扇区比内圈磁道多,采用这种结构后,硬盘不再具有实际的3D参数,寻址方式也改为线性寻址,即以扇区为单位进行寻址。

为了与使用3D寻址的老软件兼容 (如使用BIOSInt13H接口的软件), 在硬盘控制器内部安装了一个地址翻译器,由它负责将老式3D参数翻译成新的线性参数。这也是为什么现在硬盘的3D参数可以有多种选择的原因(不同的工作模式,对应不同的3D参数, 如 LBA,LARGE,NORMAL)。
 4. 扩展 Int 13H 简介
虽然现代硬盘都已经采用了线性寻址,但是由于基本 Int13H 的制约,使用 BIOS Int 13H 接口的程序, 如 DOS 等还只能访问 8 G以内的硬盘空间。为了打破这一限制, Microsoft 等几家公司制定了扩展 Int 13H 标准(Extended Int13H),采用线性寻址方式存取硬盘, 所以突破了 8 G的限制,而且还加入了对可拆卸介质 (如活动硬盘) 的支持。

 

硬盘的基本参数:
一、容量
作为计算机系统的数据存储器,容量是硬盘最主要的参数。
硬盘的容量以兆字节(MB)或千兆字节(GB)为单位,1GB=1024MB。但硬盘厂商在标称硬盘容量时通常取1G=1000MB,因此我们在BIOS中或在格式化硬盘时看到的容量会比厂家的标称值要小。
硬盘的容量指标还包括硬盘的单碟容量。所谓单碟容量是指硬盘单片盘片的容量,单碟容量越大,单位成本越低,平均访问时间也越短。
对于用户而言,硬盘的容量就象内存一样,永远只会嫌少不会嫌多。Windows操作系统带给我们的除了更为简便的操作外,还带来了文件大小与数量的日益膨胀,一些应用程序动辄就要吃掉上百兆的硬盘空间,而且还有不断增大的趋势。因此,在购买硬盘时适当的超前是明智的。近两年主流硬盘是80G,而160G以上的大容量硬盘亦已开始逐渐普及。
一般情况下硬盘容量越大,单位字节的价格就越便宜,但是超出主流容量的硬盘略微例外。时至2007年12月初,1TB(1000GB)的希捷硬盘中关村报价是¥2550元,500G的硬盘大概是¥965元。
二、转速
转速(Rotational speed 或Spindle speed)是指硬盘盘片每分钟转动的圈数,单位为rpm。 
早期IDE硬盘的转速一般为5200rpm或5400rpm,曾经Seagate的“大灰熊”系列和Maxtor则达到了7200rpm,是IDE硬盘中转速最快的。如今的硬盘都是7200rpm的转速,而更高的则达到了10000rpm。

三、平均访问时间
平均访问时间(Average Access Time)是指磁头从起始位置到达目标磁道位置,并且从目标磁道上找到要读写的数据扇区所需的时间。

平均访问时间体现了硬盘的读写速度,它包括了硬盘的寻道时间和等待时间,即:平均访问时间=平均寻道时间+平均等待时间。

硬盘的平均寻道时间(Average Seek Time)是指硬盘的磁头移动到盘面指定磁道所需的时间。这个时间当然越小越好,目前硬盘的平均寻道时间通常在8ms到12ms之间,而SCSI硬盘则应小于或等于8ms。

硬盘的等待时间,又叫潜伏期(Latency),是指磁头已处于要访问的磁道,等待所要访问的扇区旋转至磁头下方的时间。平均等待时间为盘片旋转一周所需的时间的一半,一般应在4ms以下。

四、传输速率 
传输速率(Data Transfer Rate) 硬盘的数据传输率是指硬盘读写数据的速度,单位为兆字节每秒(MB/s)。硬盘数据传输率又包括了内部数据传输率和外部数据传输率。
内部传输率(Internal Transfer Rate) 也称为持续传输率(Sustained Transfer Rate),它反映了硬盘缓冲区未用时的性能。内部传输率主要依赖于硬盘的旋转速度。
外部传输率(External Transfer Rate)也称为突发数据传输率(Burst Data Transfer Rate)或接口传输率,它标称的是系统总线与硬盘缓冲区之间的数据传输率,外部数据传输率与硬盘接口类型和硬盘缓存的大小有关。
目前Fast ATA接口硬盘的最大外部传输率为16.6MB/s,而Ultra ATA接口的硬盘则达到33.3MB/s。 
使用SATA(Serial ATA)口的硬盘又叫串口硬盘,是未来PC机硬盘的趋势。2001年,由Intel、APT、Dell、IBM、希捷、迈拓这几大厂商组成的Serial ATA委员会正式确立了Serial ATA 1.0规范。2002年,虽然串行ATA的相关设备还未正式上市,但Serial ATA委员会已抢先确立了Serial ATA 2.0规范。Serial ATA采用串行连接方式,串行ATA总线使用嵌入式时钟信号,具备了更强的纠错能力,与以往相比其最大的区别在于能对传输指令(不仅仅是数据)进行检查,如果发现错误会自动矫正,这在很大程度上提高了数据传输的可靠性。串行接口还具有结构简单、支持热插拔的优点。
串口硬盘是一种完全不同于并行ATA的新型硬盘接口类型,由于采用串行方式传输数据而知名。相对于并行ATA来说,就具有非常多的优势。首先,Serial ATA以连续串行的方式传送数据,一次只会传送1位数据。这样能减少SATA接口的针脚数目,使连接电缆数目变少,效率也会更高。实际上,Serial ATA 仅用四支针脚就能完成所有的工作,分别用于连接电缆、连接地线、发送数据和接收数据,同时这样的架构还能降低系统能耗和减小系统复杂性。其次,Serial ATA的起点更高、发展潜力更大,Serial ATA 1.0定义的数据传输率可达150MB/s,这比最快的并行ATA(即ATA/133)所能达到133MB/s的最高数据传输率还高,而在Serial ATA 2.0的数据传输率达到300MB/s,最终SATA将实现600MB/s的最高数据传输率。

五、缓存

与主板上的高速缓存(RAM Cache)一样,硬盘缓存的目的是为了解决系统前后级读写速度不匹配的问题,以提高硬盘的读写速度。目前,大多数SATA硬盘的缓存为8M,而Seagate的“酷鱼”系列则使用了32M Cache。

 

硬盘数据保护:
硬盘容量越做越大,我们在硬盘里存放的数据也越来越多。那么,这么大量的数据存放在这样一个铁盒子里究竟有多安全呢?虽然,目前的大多数硬盘的无故障运行时间(MTBF)已达300,000小时以上,但这仍不够,一次故障便足以造成灾难性的后果。因为对于不少用户,特别是商业用户而言,数据才是PC系统中最昂贵的部分,他们需要的是能提前对故障进行预测。正是这种需求与信任危机,推动着各厂商努力寻求一种硬盘安全监测机制,于是,一系列的硬盘数据保护技术应运而生。 
 1、S.M.A.R.T.技术
  S.M.A.R.T.技术的全称是Self-Monitoring, Analysis and Reporting Technology,即“自监测、分析及报告技术”。在ATA-3标准中,S.M.A.R.T.技术被正式确立。S.M.A.R.T.监测的对象包括磁头、磁盘、马达、电路等,由硬盘的监测电路和主机上的监测软件对被监测对象的运行情况与历史记录及预设的安全值进行分析、比较,当出现安全值范围以外的情况时,会自动向用户发出警告,而更先进的技术还可以提醒网络管理员的注意,自动降低硬盘的运行速度,把重要数据文件转存到其它安全扇区,甚至把文件备份到其它硬盘或存储设备。通过S.M.A.R.T.技术,确实可以对硬盘潜在故障进行有效预测,提高数据的安全性。但我们也应该看到,S.M.A.R.T.技术并不是万能的,它只能对渐发性的故障进行监测,而对于一些突发性的故障,如盘片突然断裂等,硬盘再怎么smart也无能为力了。因此不管怎样,备份仍然是必须的。
2、DFT技术
  DFT(Drive Fitness Test,驱动器健康检测)技术是IBM公司为其PC硬盘开发的数据保护技术,它通过使用DFT程序访问IBM硬盘里的DFT微代码对硬盘进行检测,可以让用户方便快捷地检测硬盘的运转状况。
  据研究表明,在用户送回返修的硬盘中,大部分的硬盘本身是好的。DFT能够减少这种情形的发生,为用户节省时间和精力,避免因误判造成数据丢失。它在硬盘上分割出一个单独的空间给DFT程序,即使在系统软件不能正常工作的情况下也能调用。
  DFT微代码可以自动对错误事件进行登记,并将登记数据保存到硬盘上的保留区域中。DFT微代码还可以实时对硬盘进行物理分析,如通过读取伺服位置错误信号来计算出盘片交换、伺服稳定性、重复移动等参数,并给出图形供用户或技术人员参考。这是一个全新的观念,硬盘子系统的控制信号可以被用来分析硬盘本身的机械状况。
  而DFT软件是一个独立的不依赖操作系统的软件,它可以在用户其他任何软件失效的情况下运行。


扩展分区:
 由于主分区表中只能分四个分区, 无法满足需求,因此设计了一种扩展分区格式。基本上说, 扩展分区的信息是以链表形式存放的,但也有一些特别的地方。首先, 主分区表中要有一个基本扩展分区项,所有扩展分区都隶属于它,也就是说其他所有扩展分区的空间都必须包括在这个基本扩展分区中。对于DOS / Windows 来说,扩展分区的类型为 0x05。除基本扩展分区以外的其他所有扩展分区则以链表的形式级联存放, 后一个扩展分区的数据项记录在前一个扩展分区的分区表中,但两个扩展分区的空间并不重叠。

  扩展分区类似于一个完整的硬盘,必须进一步分区才能使用.但每个扩展分区中只能存在一个其他分区。 此分区在 DOS/Windows环境中即为逻辑盘。因此每一个扩展分区的分区表(同样存储在扩展分区的第一个扇区中)中最多只能有两个分区数据项(包括下一个扩展分区的数据项)。


相关名词解释:
缓存
(Cache memory)是硬盘控制器上的一块内存芯片,具有极快的存取速度,它是硬盘内部存储和外界接口之间的缓冲器。由于硬盘的内部数据传输速度和外界介面传输速度不同,缓存在其中起到一个缓冲的作用。缓存的大小与速度是直接关系到硬盘的传输速度的重要因素,能够大幅度地提高硬盘整体性能。当硬盘存取零碎数据时需要不断地在硬盘与内存之间交换数据,如果有大缓存,则可以将那些零碎数据暂存在缓存中,减小外系统的负荷,也提高了数据的传输速度。 
  硬盘的缓存主要起三种作用:一是预读取。当硬盘受到CPU指令控制开始读取数据时,硬盘上的控制芯片会控制磁头把正在读取的簇的下一个或者几个簇中的数据读到缓存中(由于硬盘上数据存储时是比较连续的,所以读取命中率较高),当需要读取下一个或者几个簇中的数据的时候,硬盘则不需要再次读取数据,直接把缓存中的数据传输到内存中就可以了,由于缓存的速度远远高于磁头读写的速度,所以能够达到明显改善性能的目的;二是对写入动作进行缓存。当硬盘接到写入数据的指令之后,并不会马上将数据写入到盘片上,而是先暂时存储在缓存里,然后发送一个“数据已写入”的信号给系统,这时系统就会认为数据已经写入,并继续执行下面的工作,而硬盘则在空闲(不进行读取或写入的时候)时再将缓存中的数据写入到盘片上。虽然对于写入数据的性能有一定提升,但也不可避免地带来了安全隐患——如果数据还在缓存里的时候突然掉电,那么这些数据就会丢失。对于这个问题,硬盘厂商们自然也有解决办法:掉电时,磁头会借助惯性将缓存中的数据写入零磁道以外的暂存区域,等到下次启动时再将这些数据写入目的地;第三个作用就是临时存储最近访问过的数据。有时候,某些数据是会经常需要访问的,硬盘内部的缓存会将读取比较频繁的一些数据存储在缓存中,再次读取时就可以直接从缓存中直接传输。 
  缓存容量的大小不同品牌、不同型号的产品各不相同,早期的硬盘缓存基本都很小,只有几百KB,已无法满足用户的需求。2MB和8MB缓存是现今主流硬盘所采用,而在服务器或特殊应用领域中还有缓存容量更大的产品,甚至达到了16MB、64MB等。 
  大容量的缓存虽然可以在硬盘进行读写工作状态下,让更多的数据存储在缓存中,以提高硬盘的访问速度,但并不意味着缓存越大就越出众。缓存的应用存在一个算法的问题,即便缓存容量很大,而没有一个高效率的算法,那将导致应用中缓存数据的命中率偏低,无法有效发挥出大容量缓存的优势。算法是和缓存容量相辅相成,大容量的缓存需要更为有效率的算法,否则性能会大大折扣,从技术角度上说,高容量缓存的算法是直接影响到硬盘性能发挥的重要因素。更大容量缓存是未来硬盘发展的必然趋势。 
内部数据传输率 
内部数据传输率(Internal Transfer Rate)是指硬盘磁头与缓存之间的数据传输率,简单的说就是硬盘将数据从盘片上读取出来,然后存储在缓存内的速度。内部传输率可以明确表现出硬盘的读写速度,它的高低才是评价一个硬盘整体性能的决定性因素,它是衡量硬盘性能的真正标准。有效地提高硬盘的内部传输率才能对磁盘子系统的性能有最直接、最明显的提升。目前各硬盘生产厂家努力提高硬盘的内部传输率,除了改进信号处理技术、提高转速以外,最主要的就是不断的提高单碟容量以提高线性密度。由于单碟容量越大的硬盘线性密度越高,磁头的寻道频率与移动距离可以相应的减少,从而减少了平均寻道时间,内部传输速率也就提高了。虽然硬盘技术发展的很快,但内部数据传输率还是在一个比较低(相对)的层次上,内部数据传输率低已经成为硬盘性能的最大瓶颈。目前主流的家用级硬盘,内部数据传输率基本还停留在70~90 MB/s左右,而且在连续工作时,这个数据会降到更低。 
数据传输率的单位一般采用MB/s或Mbit/s,尤其在内部数据传输率上官方数据中更多的采用Mbit/s为单位。此处有必要讲解一下两个单位二者之间的差异:
MB/s的含义是兆字节每秒,Mbit/s的含义是兆比特每秒,前者是指每秒传输的字节数量,后者是指每秒传输的比特位数。MB/s中的B字母是Byte的含义,虽然与Mbit/s中的bit翻译一样,都是比特,也都是数据量度单位,但二者是完全不同的。Byte是字节数,bit是位数,在计算机中每八位为一字节,也就是1Byte=8bit,是1:8的对应关系。因此1MB/s等于8Mbit/s。因此在在书写单位时一定要注意B字母的大小写,尤其有些人还把Mbit/s简写为Mb/s,此时B字母的大小真可以称为失之毫厘,谬以千里。 
上面这是一般情况下MB/s与Mbit/s的对应关系,但在硬盘的数据传输率上二者就不能用一般的MB和Mbit的换算关系(1B=8bit)来进行换算。比如某款产品官方标称的内部数据传输率为683Mbit/s,此时不能简单的认为683除以8得到85.375,就认为85MB/s是该硬盘的内部数据传输率。因为在683Mbit中还包含有许多bit(位)的辅助信息,不完全是硬盘传输的数据,简单的用8来换算,将无法得到真实的内部数据传输率数值。 
外部数据传输率 
硬盘数据传输率的英文拼写为Data Transfer Rate,简称DTR。硬盘数据传输率表现出硬盘工作时数据传输速度,是硬盘工作性能的具体表现,它并不是一成不变的而是随着工作的具体情况而变化的。在读取硬盘不同磁道、不同扇区的数据;数据存放的是否连续等因素都会影响到硬盘数据传输率。因为这个数据的不确定性,所以厂商在标示硬盘参数时,更多是采用外部数据传输率(External Transfer Rate)和内部数据传输率(Internal Transfer Rate)。 
外部数据传输率(External Transfer Rate),一般也称为突发数据传输或接口传输率。是指硬盘缓存和电脑系统之间的数据传输率,也就是计算机通过硬盘接口从缓存中将数据读出交给相应的控制器的速率。平常硬盘所采用的ATA66、ATA100、ATA133等接口,就是以硬盘的理论最大外部数据传输率来表示的。ATA100中的100就代表着这块硬盘的外部数据传输率理论最大值是100MB/s;ATA133则代表外部数据传输率理论最大值是133MB/s;而SATA接口的硬盘外部理论数据最大传输率可达150MB/s。这些只是硬盘理论上最大的外部数据传输率,在实际的日常工作中是无法达到这个数值的。 
转速 
转速(Rotationl Speed),是硬盘内电机主轴的旋转速度,也就是硬盘盘片在一分钟内所能完成的最大转数。转速的快慢是标示硬盘档次的重要参数之一,它是决定硬盘内部传输率的关键因素之一,在很大程度上直接影响到硬盘的速度。硬盘的转速越快,硬盘寻找文件的速度也就越快,相对的硬盘的传输速度也就得到了提高。硬盘转速以每分钟多少转来表示,单位表示为RPM,RPM是Revolutions Per minute的缩写,是转/每分钟。RPM值越大,内部传输率就越快,访问时间就越短,硬盘的整体性能也就越好。 
硬盘的主轴马达带动盘片高速旋转,产生浮力使磁头飘浮在盘片上方。要将所要存取资料的扇区带到磁头下方,转速越快,则等待时间也就越短。因此转速在很大程度上决定了硬盘的速度。 
家用的普通硬盘的转速一般有5400rpm、7200rpm几种,高转速硬盘也是现在台式机用户的首选;而对于笔记本用户则是4200rpm、5400rpm为主,虽然已经有公司发布了7200rpm的笔记本硬盘,但在市场中还较为少见;服务器用户对硬盘性能要求最高,服务器中使用的SCSI硬盘转速基本都采用10000rpm,甚至还有15000rpm的,性能要超出家用产品很多。较高的转速可缩短硬盘的平均寻道时间和实际读写时间,但随着硬盘转速的不断提高也带来了温度升高、电机主轴磨损加大、工作噪音增大等负面影响。笔记本硬盘转速低于台式机硬盘,一定程度上是受到这个因素的影响。笔记本内部空间狭小,笔记本硬盘的尺寸(2.5寸)也被设计的比台式机硬盘(3.5寸)小,转速提高造成的温度上升,对笔记本本身的散热性能提出了更高的要求;噪音变大,又必须采取必要的降噪措施,这些都对笔记本硬盘制造技术提出了更多的要求。同时转速的提高,而其它的维持不变,则意味着电机的功耗将增大,单位时间内消耗的电就越多,电池的工作时间缩短,这样笔记本的便携性就受到影响。所以笔记本硬盘一般都采用相对较低转速的4200rpm硬盘。 
转速是随着硬盘电机的提高而改变的,现在液态轴承马达(Fluid dynamic bearing motors)已全面代替了传统的滚珠轴承马达。液态轴承马达通常是应用于精密机械工业上,它使用的是黏膜液油轴承,以油膜代替滚珠。这样可以避免金属面的直接摩擦,将噪声及温度被减至最低;同时油膜可有效吸收震动,使抗震能力得到提高;更可减少磨损,提高寿命。 
平均寻道时间 
平均寻道时间的英文拼写是Average Seek Time,它是了解硬盘性能至关重要的参数之一。它是指硬盘在接收到系统指令后,磁头从开始移动到移动至数据所在的磁道所花费时间的平均值,它一定程度上体现硬盘读取数据的能力,是影响硬盘内部数据传输率的重要参数,单位为毫秒(ms)。不同品牌、不同型号的产品其平均寻道时间也不一样,但这个时间越低,则产品越好,现今主流的硬盘产品平均寻道时间都在在9ms左右。 
平均寻道时间实际上是由转速、单碟容量等多个因素综合决定的一个参数。一般来说,硬盘的转速越高,其平均寻道时间就越低;单碟容量越大,其平均寻道时间就越低。当单碟片容量增大时,磁头的寻道动作和移动距离减少,从而使平均寻道时间减少,加快硬盘速度。当然处于市场定位以及噪音控制等方面的考虑,厂商也会人为的调整硬盘的平均寻道时间。在硬盘上数据是分磁道、分簇存储的,经常的读写操作后,往往数据并不是连续排列在同一磁道上,所以磁头在读取数据时往往需要在磁道之间反复移动,因此平均寻道时间在数据传输中起着十分重要的作用。在读写大量的小文件时,平均寻道时间也起着至关重要的作用。在读写大文件或连续存储的大量数据时,平均寻道时间的优势则得不到体现,此时单碟容量的大小、转速、缓存就是较为重要的因素。 
磁头数 
硬盘磁头是硬盘读取数据的关键部件,它的主要作用就是将存储在硬盘盘片上的磁信息转化为电信号向外传输,而它的工作原理则是利用特殊材料的电阻值会随着磁场变化的原理来读写盘片上的数据,磁头的好坏在很大程度上决定着硬盘盘片的存储密度。目前比较常用的是GMR(Giant Magneto Resisive)巨磁阻磁头,GMR磁头的使用了磁阻效应更好的材料和多层薄膜结构,这比以前的传统磁头和MR(Magneto Resisive)磁阻磁头更为敏感,相对的磁场变化能引起来大的电阻值变化,从而实现更高的存储密度 。 
磁头是硬盘中对盘片进行读写工作的工具,是硬盘中最精密的部位之一。磁头是用线圈缠绕在磁芯上制成的。硬盘在工作时,磁头通过感应旋转的盘片上磁场的变化来读取数据;通过改变盘片上的磁场来写入数据。为避免磁头和盘片的磨损,在工作状态时,磁头悬浮在高速转动的盘片上方,而不与盘片直接接触,只有在电源关闭之后,磁头会自动回到在盘片上的固定位置(称为着陆区,此处盘片并不存储数据,是盘片的起始位置)。 
由于磁头工作的性质,对其磁感应敏感度和精密度的要求都非常高。早先的磁头采用铁磁性物质,在磁感应敏感度上不是很理想,因此早期的硬盘单碟容量都比较低,单碟容量大则碟片上磁道密度大,磁头感应程度不够,就无法准确读出数据。这就造成早期的硬盘容量都很有限。随着技术的发展,磁头在磁感应敏感度和精密度方面都有了长足的进步。 
最初磁头是读、写功能一起的,这对磁头的制造工艺、技术都要求很高,而对于个人电脑来说,在与硬盘交换数据的过程中,读取数据远远快于写入数据,读、写操作二者的特性也完全不同,这也就导致了读、写分离的磁头,二者分别工作、各不干扰。 
薄膜感应(TEI)磁头 
在1990年至1995年间,硬盘采用TFI读/写技术。TFI磁头实际上是绕线的磁芯。盘片在绕线的磁芯下通过时会在磁头上产生感应电压。TFI读磁头之所以会达到它的能力极限,是因为在提高磁灵敏度的同时,它的写能力却减弱了。 
各向异性磁阻(AMR)磁头 
AMR(Anisotropic Magneto Resistive)90年代中期,希捷公司推出了使用AMR磁头的硬盘。AMR磁头使用TFI磁头来完成写操作,但用薄条的磁性材料来作为读元件。在有磁场存在的情况下,薄条的电阻会随磁场而变化,进而产生很强的信号。硬盘译解由于磁场极性变化而引起的薄条电阻变化,提高了读灵敏度。AMR磁头进一步提高了面密度,而且减少了元器件数量。由于AMR薄膜的电阻变化量有一定的限度,AMR技术最大可以支持3.3GB/平方英寸的记录密度,所以AMR磁头的灵敏度也存在极限。这导致了GMR磁头的研发。 
GMR(Giant Magneto Resistive,巨磁阻) 
GMR磁头继承了TFI磁头和AMR磁头中采用的读/写技术。但它的读磁头对于磁盘上的磁性变化表现出更高的灵敏度。GMR磁头是由4层导电材料和磁性材料薄膜构成的:一个传感层、一个非导电中介层、一个磁性的栓层和一个交换层。GMR传感器的灵敏度比AMR磁头大3倍,所以能够提高盘片的密度和性能。

硬盘的磁头数取决于硬盘中的碟片数,盘片正反两面都存储着数据,所以一个盘片对应两个磁头才能正常工作。比如总容量80GB的硬盘,采用单碟容量80GB的盘片,那只有一张盘片,该盘片正反面都有数据,则对应两个磁头;而同样总容量120GB的硬盘,采用二张盘片,则只有三个磁头,其中一张盘片的一面没有磁头。


相关参数:
硬盘的转速(Rotational Speed):也就是硬盘电机主轴的转速,转速是决定硬盘内部传输率的关键因素之一,它的快慢在很大程度上影响了硬盘的速度,同时转速的快慢也是区分硬盘档次的重要标志之一。 硬盘的主轴马达带动盘片高速旋转,产生浮力使磁头飘浮在盘片上方。要将所要存取资料的扇区带到磁头下方,转速越快,等待时间也就越短。因此转速在很大程度上决定了硬盘的速度。目前市场上常见的硬盘转速一般有5400rpm、7200rpm、甚至10000rpm。理论上,转速越快越好。因为较高的转速可缩短硬盘的平均寻道时间和实际读写时间。可是转速越快发热量越大,不利于散热。现在的主流硬盘转速一般为7200rpm以上。 
平均寻道时间(Average seek time):指硬盘在盘面上移动读写头至指定磁道寻找相应目标数据所用的时间,它描述硬盘读取数据的能力,单位为毫秒。当单碟片容量增大时,磁头的寻道动作和移动距离减少,从而使平均寻道时间减少,加快硬盘速度。目前市场上主流硬盘的平均寻道时间一般在9ms以下,大于10ms的硬盘属于较早的产品,一般不值得购买。

平均潜伏时间(Average latency time):指当磁头移动到数据所在的磁道后,然后等待所要的数据块继续转动到磁头下的时间,一般在2ms-6ms之间。 
平均访问时间(Average access time):指磁头找到指定数据的平均时间,通常是平均寻道时间和平均潜伏时间之和。平均访问时间最能够代表硬盘找到某一数据所用的时间,越短的平均访问时间越好,一般在11ms-18ms之间。注意:现在不少硬盘广告之中所说的平均访问时间大部分都是用平均寻道时间所代替的。 
突发数据传输率(Burst data transfer rate):指的是电脑通过数据总线从硬盘内部缓存区中所读取数据的最高速率。也叫外部数据传输率(External data transfer rate)。目前采用UDMA/66技术的硬盘的外部传输率已经达到了66.6MB/s。
最大内部数据传输率(Internal data transfer rate):指磁头至硬盘缓存间的最大数据传输率,一般取决于硬盘的盘片转速和盘片数据线密度(指同一磁道上的数据间隔度)。也叫持续数据传输率(sustained transfer rate)。一般采用UDMA/66技术的硬盘的内部传输率也不过25-30MB/s,只有极少数产品超过30MB/s,由于内部数据传输率才是系统真正的瓶颈,因此大家在购买时要分清这两个概念。不过一般来讲,硬盘的转速相同时,单碟容量大的内 部传输率高;在单碟容量相同时,转速高的硬盘的内部传输率高。 
自动检测分析及报告技术(Self-Monitoring Analysis and Report Technology,简称S.M.A.R.T): 现在出厂的硬盘基本上都支持S.M.A.R.T技术。这种技术可以对硬盘的磁头单元、盘片电机驱动系统、硬盘内部电路以及盘片表面媒介材料等进行监测,当S.M.A.R.T监测并分析出硬盘可能出现问题时会及时向用户报警以避免电脑数据受到损失。S.M.A.R.T技术必须在主板支持的前提下才能发生作用,而且S.M.A.R.T技术也不能保证能预报出所有可能发生的硬盘故障。 
磁阻磁头技术MR(Magneto-Resistive Head):MR(MAGNETO-RESITIVEHEAD)即磁阻磁头的简称。MR技术可以更高的实际记录密度、记录数据,从而增加硬盘容量,提高数据吞吐率。目前的MR技术已有几代产品。MAXTOR的钻石三代/四代等均采用了最新的MR技术。磁阻磁头的工作原理是基于磁阻效应来工作的,其核心是一小片金属材料,其电阻随磁场变化而变化,虽然其变化率不足2%,但因为磁阻元件连着一个非常灵敏的放大器,所以可测出该微小的电阻变化。MR技术可使硬盘容量提高40%以上。GMR(GiantMagnetoresistive)巨磁阻磁头GMR磁头与MR磁头一样,是利用特殊材料的电阻值随磁场变化的原理来读取盘片上的数据,但是GMR磁头使用了磁阻效应更好的材料和多层薄膜结构,比MR磁头更为敏感,相同的磁场变化能引起更大的电阻值变化,从而可以实现更高的存储密度,现有的MR磁头能够达到的盘片密度为3Gbit-5Gbit/in2(千兆位每平方英寸),而GMR磁头可以达到10Gbit-40Gbit/in2以上。目前GMR磁头已经处于成熟推广期,在今后的数年中,它将会逐步取代MR磁头,成为最流行的磁头技术。 
缓存:缓存是硬盘与外部总线交换数据的场所。硬盘的读数据的过程是将磁信号转化为电信号后,通过缓存一次次地填充与清空,再填充,再清空,一步步按照PCI总线的周期送出,可见,缓存的作用是相当重要的。在接口技术已经发展到一个相对成熟的阶段的时候,缓存的大小与速度是直接关系到硬盘的传输速度的重要因素。目前主流硬盘的缓存主要有512KB和2MB等几种。其类型一般是EDO DRAM或SDRAM,目前一般以SDRAM为主。根据写入方式的不同,有写通式和回写式两种。写通式在读硬盘数据时,系统先检查请求指令,看看所要的数据是否在缓存中,如果在的话就由缓存送出响应的数据,这个过程称为命中。这样系统就不必访问硬盘中的数据,由于SDRAM的速度比磁介质快很多,因此也就加快了数据传输的速度。回写式就是在写入硬盘数据时也在缓存中找,如果找到就由缓存就数据写入盘中,现 在的多数硬盘都是采用的回写式硬盘,这样就大大提高了性能。 
连续无故障时间(MTBF):指硬盘从开始运行到出现故障的最长时间。一般硬盘的MTBF至少在30000或40000小时。
 
部分响应完全匹配技术PRML(Partial Response Maximum Likelihood):它能使盘片存储更多的信息,同时可以有效地提高数据的读取和数据传输率。是当前应用于硬盘数据读取通道中的先进技术之一。PRML技术是将硬盘数据读取电路分成两段“操作流水线”,流水线第一段将磁头读取的信号进行数字化处理然后只选取部分“标准”信号移交第二段继续处理,第二段将所接收的信号与PRML芯片预置信号模型进行对比,然后选取差异最小的信号进行组合后输出以完成数据的读取过程。PRML技术可以降低硬盘读取数据的错误率,因此可以进一步提高磁盘数据密集度。
单磁道时间(Single track seek time):指磁头从一磁道转移至另一磁道所用的时间。
超级数字信号处理器(Ultra DSP)技术:应用Ultra DSP进行数学运算,其速度较一般CPU快10到50倍。采用Ultra DSP技术,单个的DSP芯片可以同时提供处理器及驱动接口的双重功能,以减少其它电子元件的使用,可大幅度地提高硬盘的速度和可靠性。接口技术可以极大地提高硬盘的最大外部传输率,最大的益处在于可以把数据从硬盘直接传输到主内存而不占用更多的CPU资源,提高系统性能。
 
硬盘表面温度:指硬盘工作时产生的温度使硬盘密封壳温度上升情况。硬盘工作时产生的温度过高将影响薄膜式磁头(包括MR磁头)的数据读取灵敏度,因此硬盘工作表面温度较低的硬盘有更好的数据读、写稳定性。 
全程访问时间(Max full seek time):指磁头开始移动直到最后找到所需要的数据块所用的全部时间。 
硬盘镜像(Disk Mirroring):硬盘镜像最简单的形式是,一个主机控制器带二个互为镜像的硬盘。数据同时写入二个硬盘,二个硬盘上的数据完全相同,因此一个硬盘故障时,另一个硬盘可提供数据。 
硬盘数据跨盘(Disk Spanning):利用这种技术,几个硬盘看上去像一个大硬盘;这个虚拟盘可以把数据跨盘存储在不同的物理盘上,用户不需要关心哪个盘上存有他需要的数据 
硬盘数据分段(Disk striping):数据分散存储在几个盘上。数据的第一段放在盘0,第2段放在盘1,……直到达到硬盘链中的最后一个盘,然后下一个逻辑段放在硬盘0,再下一 个逻辑段放在盘1,……如此循环直至完成写操作。 
双控(Duplexing):这里指的是用二个控制器来驱动一个硬盘子系统。一个控制器发生故障,另一个控制器马上控制硬盘操作。此外,如果编写恰当的控制器软件,可实现不同的硬盘驱动器同时工作。 
容错:(Fault Tolerant):具有容错功能的机器有抗故障的能力。例如RAID 1镜像系统是容错的,镜像盘中的一个出故障,硬盘子系统仍能正常工作。 
主机控制器(Host Adapter):这里指的是使主机和外设进行数据交换的控制部件(如SCSI控制器) 
热修复(Hot Fix):指用一个硬盘热备份来替换发生故障的硬盘。要注意故障盘并不是真正地被物理替换了。用作热备份的盘被加载上故障盘原来的数据,然后系统恢复工作。 
热补(Hot Patch):具有硬盘热备份,可随时替换故障盘的系统。 
热备份(Hot Spare):与CPU系统电连接的硬盘,它能替换下系统中的故障盘。与冷备份的区别是,冷备份盘平时与机器不相连接,硬盘故障时才换下故障盘。 
平均数据丢失时间(MTBDL – Mean Time Between Data Loss):发生数据丢失的事件间的平均时间。 
平均无故障工作时间(MTBF – Mean Time Between Failure 或 MTIF):设备平均无故障运行时间。 
廉价冗余磁盘阵列(RAID – Redundant Array of Inexpensive Drives):一种将多个廉价硬盘组合成快速,有容错功能的硬盘子系统的技术。 
系统重建(Reconstruction or Rebuild):一个硬盘发生故障后,从其他正确的硬盘数据和奇偶信息恢复故障盘数据的过程。 
恢复时间(Reconstruction Time):为故障盘重建数据所需要的时间。 
单个大容量硬盘(SED – Singe Expensive Drive) 。
传输速率(Transfer Rate):指在不同条件下存取数据的速度。 
虚拟盘(Virtual Disk):与虚拟存储器类似,虚拟盘是一个概念盘,用户不必关心他的数据写在哪个物理盘上。虚拟盘一般跨越几个物理盘。但用户看到的只是一个盘。 
热插拔(Hot Swap):指在不宕机制情况下,在线更换设备。 
DAS (direct access storage device):直接访问存储设备。
NAS (Network Attached Storage):网络附加存储设备。
SAN (Storage Area Networks):存储区域网。


网络硬盘:
"网络硬盘"是将用户的文件存放在互联网上,方便用户"携带"他们的文件,方便用户与他的亲朋好友"分享"他们的文件,所有操作在我们网站的页面上完成。文件类型不作限制。

 

固态硬盘介绍:
  固态硬盘(Solid State Disk、IDE FLASH DISK、Serial ATA Flash Disk)是由控制单元和存储单元(FLASH芯片)组成,简单的说就是用固态电子存储芯片阵列而制成的硬盘(目前最大容量为416GB),固态硬盘的接口规范和定义、功能及使用方法上与普通硬盘的完全相同,.在产品外形和尺寸上也完全与普通硬盘一致,包括3.5",2.5",1.8"多种类型。由于固态硬盘没有普通硬盘的旋转介质,因而抗震性极佳,同时工作温度很宽,扩展温度的电子硬盘可工作在-45℃~+85℃。广泛应用于军事、车载、工控、视频监控、网络监控、网络终端、电力、医疗、航空等、导航设备等领域。
  通俗点讲:目前的硬盘(ATA 或 SATA)都是磁碟型的,数据就储存在磁碟扇区里。而固态硬盘是使用闪存颗粒(flash disk)(即目前内存、mp3、U盘等存储介质)制作而成,因而其外观和传统硬盘有很大区别。固态硬盘是未来硬盘发展的趋势。目前,三星等厂商已经发布过多款固态硬盘,其中宇瞻公司最新发布的新产品,使用单一控制芯片开发的高速SATA固态硬盘,其连续存取速度最高达200MB/sec,容量可达128GB,相较于目前市面上连续存取速度约50~60MB/sec的SATA接口的SSD,Apacer目前可是足足快了2~3倍!不过目前固态硬盘价格还高高在上,尚未普及到DIY市场。

 

(3):显卡


工作原理:
资料 (data) 一旦离开 CPU,必须通过 4 个 步骤,最后才会到达显示屏:
1、从总线 (bus) 进入显卡芯片 -将 CPU 送来的资料送到显卡芯片里面进行处理。 (数位资料) 
2、从 video chipset 进入 video RAM-将芯片处理完的资料送到显存。 (数位资料) 
3、从显存进入 Digital Analog Converter (= RAM DAC),由显示显存读取出资料再送到 RAM DAC 进 行资料转换的工作(数位转类比)。 (数位资料) 
4、从 DAC 进入显示器 (Monitor)-将转换完的类比资料送到显示屏 (类比资料) 
显示效能是系统效能的一部份,其效能的高低由以上四步所决定,它与显示卡的效能 (video performance) 不太一样,如要严格区分,显示卡的效能应该受中间两步所决定,因为这两步的资料传输都是在显示卡的内部。第一步是由 CPU(运算器和控制器一起组成了计算机的核心,成为微处理器或中央处理器,即CPU) 进入到显示卡里面,最后一步是由显示卡直接送资料到显示屏上。


基本结构:
1)GPU 
全称是Graphic Processing Unit,中文翻译为"图形处理器"。NVIDIA公司在发布GeForce 256图形处理芯片时首先提出的概念。GPU使显卡减少了对CPU的依赖,并进行部分原本CPU的工作,尤其是在3D图形处理时。GPU所采用的核心技术有硬件T&L(几何转换和光照处理)、立方环境材质贴图和顶点混合、纹理压缩和凹凸映射贴图、双重纹理四像素256位渲染引擎等,而硬件T&L技术可以说是GPU的标志。 
2)显示卡 
显示卡(Display Card)的基本作用就是控制计算机的图形输出,由显示卡连接显示器,我们才能够在显示屏幕上看到图象,显示卡有显示芯片、显示内存、RAMDAC等组成,这些组件决定了计算机屏幕上的输出,包括屏幕画面显示的速度、颜色,以及显示分辨率。显示卡从早期的单色显示卡、彩色显示卡、加强型绘图显示卡,一直到VGA(Video Graphic Array)显示绘图数组,都是由IBM主导显示卡的规格。VGA在文字模式下为720*400分辨率,在绘图模式下为640*480*16色,或320*200*256色,而此256色显示模式即成为后来显示卡的共同标准,因此我们通称显示卡为VGA。而后来各家显示芯片厂商更致力将VGA的显示能力再提升,而有SVGA(SuperVGA)、XGA(eXtended Graphic Array)等名词出现,近年来显示芯片厂商更将3D功能与VGA整合在一起, 即成为我们目前所贯称的3D加速卡,3D绘图显示卡。 
3)像素填充率 
像素填充率的最大值为3D时钟乘以渲染途径的数量。如NVIDIA的GeForce 2 GTS芯片,核心频率为200 MHz,4条渲染管道,每条渲染管道包含2个纹理单元。那么它的填充率就为4x2像素x2亿/秒=16亿像素/秒。这里的像素组成了我们在显示屏上看到的画面,在800x600分辨率下一共就有800x600=480,000个像素,以此类推1024x768分辨率就有1024x768=786,432个像素。我们在玩游戏和用一些图形软件常设置分辨率,当分辨率越高时显示芯片就会渲染更多的像素,因此填充率的大小对衡量一块显卡的性能有重要的意义。刚才我们计算了GTS的填充率为16亿像素/秒,下面我们看看MX200。它的标准核心频率为175,渲染管道只有2条,那么它的填充率为2x2 像素x1.75亿/秒=7亿像素/秒,这是它比GTS的性能相差一半的一个重要原因。 
4)显存 
显示内存的简称。顾名思义,其主要功能就是暂时将储存显示芯片要处理的数据和处理完毕的数据。图形核心的性能愈强,需要的显存也就越多。以前的显存主要是SDR的,容量也不大。而现在市面上基本采用的都是DDR3规格的,在某些高端卡上更是采用了性能更为出色的DDR4或DDR5代内存。

 

产品分类:
1)AGP接口 
Accelerate Graphical Port是Intel公司开发的一个视频接口技术标准, 是为了解决PCI总线的低带宽而开发的接口技术。它通过将图形卡与系统主内存连接起来,在CPU和图形处理器之间直接开辟了更快的总线。其发展经历了AGP1.0(AGP1X/2X)、AGP2.0(AGP4X)、AGP3.0(AGP8X)。最新的AGP8X其理论带宽为2.1Gbit/秒。目前已经被PCI-E接口基本取代,目前最强劲的AGP显卡是ATi的3850。 
2)PCI Express接口 
PCI Express是新一代的总线接口,而采用此类接口的显卡产品,已经在2004年正式面世。早在2001年的春季“英特尔开发者论坛”上,英特尔公司就提出了要用新一代的技术取代PCI总线和多种芯片的内部连接,并称之为第三代I/O总线技术。随后在2001年底,包括Intel、AMD、DELL、IBM在内的20多家业界主导公司开始起草新技术的规范,并在2002年完成,对其正式命名为PCI Express。目前最高端的PCI-E接口为PCI-E 2.0 16X,目前市场占有率最高的应该还是PCI-E 1.1 16X。
3)现在最热的双卡技术
SLI和CrossFire分别是Nvidia和ATI两家的双卡或多卡互连工作组模式.其本质是差不多的.只是叫法不同 
SLI Scan Line Interlace(扫描线交错)技术是3dfx公司应用于Voodoo 上的技术,它通过把2块Voodoo卡用SLI线物理连接起来,工作的时候一块Voodoo卡负责渲染屏幕奇数行扫描,另一块负责渲染偶数行扫描,从而达到将两块显卡“连接”在一起获得“双倍”的性能。 
CrossFire,中文名交叉火力,简称交火,是ATI的一款多重GPU技术,可让多张显示卡同时在一部电脑上并排使用,增加运算效能,与NVIDIA的SLI技术竞争。CrossFire技术于2005年6月1日,在Computex Taipei 2005正式发布,比SLI迟一年。至首度公开之今,CrossFire经过了一次修订。
如何组建:
组建SLI和Crossfire,需要几个方面。 
1、需要2个以上的显卡,必须是PCI-E,同种核心的,比如都是7900GS、8800U。ATI方面X2600等。 
2、需要主板支持,目前SLI授权未开放,官方支持SLI的主板只有NV自家的主板,AMD平台如570SLI。INTEL平台如 680i SLI。而Crossfire则开放授权,目前INTEL平台较高芯片组,945、965、P35、P31、P43、P45、X38、X48.。AMD自家的770X 790X 790FX 790GX均可进行crossfire。 
3、系统支持。
4、驱动支持。
4)集成显卡与独立显卡的并行工作
无论是Nvidia还是ATi,目前均可用自己最新的集成显卡和独立显卡进行混合并行使用,但是由于驱动原因,目前Nvidia的MCP78只能和低端的8400GS,8500GT混合SLI,ATi的780G,790GX只能和低端的2400PRO/XT,3450进行混合Crossfire。
5)不同型号显卡之间进行Crossfire
ATI目前的部分新产品支持不同型号显卡之间进行交火, 比如HD3870X2 与HD3870组建交火系统, 或者HD4870与HD4850之间组建交火系统。这种交火需要硬件以及驱动的支持,并不是所有型号之间都可以。目前的HD4870与HD4850交火已取得不错的成绩。

 

软件配置:
1)DirectX 
DirectX并不是一个单纯的图形API,它是由微软公司开发的用途广泛的API,它包含有Direct Graphics(Direct 3D+Direct Draw)、Direct 无效、Direct Play、Direct Sound、Direct Show、Direct Setup、Direct Media Objects等多个组件,它提供了一整套的多媒体接口方案。只是其在3D图形方面的优秀表现,让它的其它方面显得暗淡无光。DirectX开发之初是为了弥补Windows 3.1系统对图形、声音处理能力的不足,而今已发展成为对整个多媒体系统的各个方面都有决定性影响的接口。 
2)Direct3D 
要讲Direct3D不能不讲DirectX, DirectX是微软开发并发布的多媒体开发软件包,其中有一部分叫做DirectDraw是图形绘演API,提供对图形的强大的访问处理能力,而在DirectDraw中集成了一些三维图形相关的功能,叫做Direct3D。大概因为是微软的手笔,有的人就说它将成为3D图形的标准。 
3)OpenGL 
OpenGL是OpenGraphicsLib的缩写,是一套三维图形处理库,也是该领域的工业标准。计算机三维图形是指将用数据描述的三维空间通过计算转换成二维图像并显示或打印出来的技术。OpenGL就是支持这种转换的程序库,它源于SGI公司为其图形工作站开发的IRIS GL,在跨平台移植过程中发展成为OpenGL。SGI在1992年7月发布1.0版,后成为工业标准,由成立于1992年的独立财团OpenGL Architecture Review Board (ARB)控制。SGI等ARB成员以投票方式产生标准,并制成规范文档(Specification)公布,各软硬件厂商据此开发自己系统上的实现。只有通过了ARB规范全部测试的实现才能称为OpenGL。1995年12月ARB批准了1.1版本,最新版规范是在SIGGRAPH2007公布的OpenGL 3.0。

 

主要参数:
1.显示芯片(型号、版本级别、开发代号、制造工艺、核心频率) 
2.显存(类型、位宽、容量、封装类型、速度、频率) 
3.技术(象素渲染管线、顶点着色引擎数、3D API、RAMDAC频率及支持MAX分辨率) 
4.PCB板(PCB层数、显卡接口、输出接口、散热装置)

1)显示芯片
显示芯片:
又称图型处理器 - GPU,它在显卡中的作用,就如同CPU在电脑中的作用一样。更直接的比喻就是大脑在人身体里的作用。 
先简要介绍一下常见的生产显示芯片的厂商:Intel、ATI、nVidia、VIA(S3)、SIS、Matrox、3D Labs。 
Intel、VIA(S3)、SIS 主要生产集成芯片; 
ATI、nVidia 以独立芯片为主,是目前市场上的主流,但由于ATi现在已经被AMD收购,以后是否会继续出独立显示芯片很难说了; 
Matrox、3D Labs 则主要面向专业图形市场。 
由于ATI和nVidia基本占据了主流显卡市场,下面主要将主要针对这两家公司的产品做介绍。 
型号:
ATi公司的主要品牌 Radeon(镭) 系列,其型号由早其的 Radeon Xpress 200 到 Radeon (X300、X550、X600、X700、X800、X850) 到近期的 
Radeon (4670,4850,4870,4870X2) 性能依次由低到高。 
nVIDIA公司的主要品牌 GeForce 系列,其型号由早其的 GeForce 256、GeForce2 (100/200/400)、GeForce3(200/500)、GeForce4 
(420/440/460/4000/4200/4400/4600/4800) 到 GeForce FX(5200/5500/5600/5700/5800/5900/5950)、GeForce 
(6100/6150/6200/6400/6500/6600/6800/) 、GeForce (8400/8500/8600/8700/8800) 再到近期的 GeForce (9800GTX+/9800GX2/GTX260/GTX280/GTX280+) 性能依次由低到高。 
版本级别: 
除了上述标准版本之外,还有些特殊版,特殊版一般会在标准版的型号后面加个后缀,常见的有: 
ATi: 
SE (Simplify Edition 简化版) 通常只有64bit内存界面,或者是像素流水线数量减少。 
Pro (Professional Edition 专业版) 高频版,一般比标版在管线数量/顶点数量还有频率这些方面都要稍微高一点。 
XT (eXTreme 高端版) 是ATi系列中高端的,而nVIDIA用作低端型号。 
XT PE (eXTreme Premium Edition XT白金版) 高端的型号。 
XL (eXtreme Limited 高端系列中的较低端型号)ATI最新推出的R430中的高频版 
XTX (XT eXtreme 高端版) X1000系列发布之后的新的命名规则。 
CE (Crossfire Edition 交叉火力版) 交叉火力。 
VIVO (VIDEO IN and VIDEO OUT) 指显卡同时具备视频输入与视频捕捉两大功能。 
HM (Hyper Memory)可以占用内存的显卡 
nVIDIA: 
ZT 在XT基础上再次降频以降低价格。 
XT 降频版,而在ATi中表示最高端。 
LE (Lower Edition 低端版) 和XT基本一样,ATi也用过。 
MX 平价版,大众类。 
GTS/GS 低频版。 
GE 比GS稍强点,其实就是超了频的GS。 /影驰显卡用来表示"骨灰玩家版"的东东
GT 高频版。比GS高一个档次 因为GT没有缩减管线和顶点单元。 
GTO 比GT稍强点,有点汽车中GTO的味道。 
Ultra 在GF7系列之前代表着最高端,但7系列最高端的命名就改为GTX 。 
GTX (GT eXtreme)加强版,降频或者缩减流水管道后成为GT,再继续缩水成为GS版本。 
GT2 eXtreme 双GPU显卡。 
TI (Titanium 钛) 一般就是代表了nVidia的高端版本。 
Go 多用于移动平台。 
TC (Turbo Cache)可以占用内存的显卡
GX2(GT eXtreme 2)指一块显卡内拥有两块显示核心 如 9800GX2 


开发代号:
所谓开发代号就是显示芯片制造商为了便于显示芯片在设计、生产、销售方面的管理和驱动架构的统一而对一个系列的显示芯片给出的相应的基本的代号。开发代号作用是降低显示芯片制造商的成本、丰富产品线以及实现驱动程序的统一。一般来说,显示芯片制造商可以利用一个基本开发代号再通过控制渲染管线数量、顶点着色单元数量、显存类型、显存位宽、核心和显存频率、所支持的技术特性等方面来衍生出一系列的显示芯片来满足不同的性能、价格、市场等不同的定位,还可以把制造过程中具有部分瑕疵的高端显示芯片产品通过屏蔽管线等方法处理成为完全合格的相应低端的显示芯片产品出售,从而大幅度降低设计和制造的难度和成本,丰富自己的产品线。同一种开发代号的显示芯片可以使用相同的驱动程序,这为显示芯片制造商编写驱动程序以及消费者使用显卡都提供了方便。 
同一种开发代号的显示芯片的渲染架构以及所支持的技术特性是基本上相同的,而且所采用的制程也相同,所以开发代号是判断显卡性能和档次的重要参数。同一类型号的不同版本可以是一个代号,例如:GeForce (X700、X700 Pro、X700 XT) 代号都是 RV410;而Radeon (X1900、X1900XT、X1900XTX) 代号都是 R580 等,但也有其他的情况,如:GeForce (7300 LE、7300 GS) 代号是 G72 ;而 GeForce (7300 GT、7600 GS、7600 GT) 代号都是 G73 等。

 

制造工艺:
制造工艺指得是在生产GPU过程中,要进行加工各种电路和电子元件,制造导线连接各个元器件。通常其生产的精度以um(微米)来表示,未来有向nm(纳米)发展的趋势(1mm=1000um 1um=1000nm),精度越高,生产工艺越先进。在同样的材料中可以制造更多的电子元件,连接线也越细,提高芯片的集成度,芯片的功耗也越小。 
制造工艺的微米是指IC内电路与电路之间的距离。制造工艺的趋势是向密集度愈高的方向发展。密度愈高的IC电路设计,意味着在同样大小面积的IC中,可以拥有密度更高、功能更复杂的电路设计。微电子技术的发展与进步,主要是靠工艺技术的不断改进,使得器件的特征尺寸不断缩小,从而集成度不断提高,功耗降低,器件性能得到提高。芯片制造工艺在1995年以后,从0.5微米、0.35微米、0.25微米、0.18微米、0.15微米、0.13微米,再到目前主流的 90 纳米(0.09微米) 、65 纳米、45nm等。
核心频率:
显卡的核心频率是指显示核心的工作频率,其工作频率在一定程度上可以反映出显示核心的性能,但显卡的性能是由核心频率、显存、像素管线、像素填充率等等多方面的情况所决定的,因此在显示核心不同的情况下,核心频率高并不代表此显卡性能强劲。比如9600PRO的核心频率达到了400MHz,要比9800PRO的380MHz高,但在性能上9800PRO绝对要强于9600PRO。在同样级别的芯片中,核心频率高的则性能要强一些,提高核心频率就是显卡超频的方法之一。显示芯片主流的只有ATI和NVIDIA两家,两家都提供显示核心给第三方的厂商,在同样的显示核心下,部分厂商会适当提高其产品的显示核心频率,使其工作在高于显示核心固定的频率上以达到更高的性能。

2)显存 
类型:
目前市场中所采用的显存类型主要有DDR SDRAM,DDR SGRAM三种。 
DDR SDRAM 是Double Data Rate SDRAM的缩写(双倍数据速率) ,它能提供较高的工作频率,带来优异的数据处理性能。 
DDR SGRAM 是显卡厂商特别针对绘图者需求,为了加强图形的存取处理以及绘图控制效率,从同步动态随机存取内存(SDRAM)所改良而得的产品。SGRAM允许以方块 (Blocks) 为单位个别修改或者存取内存中的资料,它能够与中央处理器(CPU)同步工作,可以减少内存读取次数,增加绘图控制器的效率,尽管它稳定性不错,而且性能表现也很好,但是它的超频性能很差。 
目前市场上的主流是DDR3 。(ATi则有部分显卡是GDDR4,DDR5)
位宽:
显存位宽是显存在一个时钟周期内所能传送数据的位数,位数越大则瞬间所能传输的数据量越大,这是显存的重要参数之一。目前市场上的显存位宽有64位、128位、256位和512位几种,人们习惯上叫的64位显卡、128位显卡和256位显卡就是指其相应的显存位宽。显存位宽越高,性能越好价格也就越高,因此512位宽的显存更多应用于高端显卡,而主流显卡基本都采用128和256位显存。 
显存带宽=显存频率X显存位宽/8,在显存频率相当的情况下,显存位宽将决定显存带宽的大小。例如:同样显存频率为500MHz的128位和256位显存,那么它俩的显存带宽将分别为:128位=500MHz*128∕8=8GB/s,而256位=500MHz*256∕8=16GB/s,是128位的2倍,可见显存位宽在显存数据中的重要性。显卡的显存是由一块块的显存芯片构成的,显存总位宽同样也是由显存颗粒的位宽组成。显存位宽=显存颗粒位宽×显存颗粒数。显存颗粒上都带有相关厂家的内存编号,可以去网上查找其编号,就能了解其位宽,再乘以显存颗粒数,就能得到显卡的位宽。
容量:
这个就比较好理解了,容量越大,存的东西就越多,当然也就越好。 
目前主流的显存容量128MB、256MB、512MB,1024MB等。 
封装类型 
显存封装形式主要有: 
TSOP (Thin Small Out-Line Package) 薄型小尺寸封装 
QFP (Quad Flat Package) 小型方块平面封装 
MicroBGA (Micro Ball Grid Array) 微型球闸阵列封装,又称FBGA(Fine-pitch Ball Grid Array) 
目前的主流显卡基本上是用TSOP和MBGA封装,其中又以TSOP封装居多. 
速度: 
显存速度一般以ns(纳秒)为单位。常见的显存速度有7ns、6ns、5.5ns、5ns、4ns,3.6ns、2.8ns、2.2ns、1.1ns等,越小表示速度越快\越好。 
显存的理论工作频率计算公式是:额定工作频率(MHz)=1000/显存速度×n得到(n因显存类型不同而不同,如果是SDRAM显存,则n=1;DDR显存则n=2;DDRII显存则n=4)。
频率:
显存频率一定程度上反应着该显存的速度,以MHz(兆赫兹)为单位。 
显存频率随着显存的类型、性能的不同而不同:
SDRAM显存一般都工作在较低的频率上,一般就是133MHz和166MHz,此种频率早已无法满足现在显卡的需求。 
DDR SDRAM显存则能提供较高的显存频率,因此是目前采用最为广泛的显存类型,目前无论中、低端显卡,还是高端显卡大部分都采用DDR SDRAM,其所能提供的显存频率也差异很大,主要有400MHz、500MHz、600MHz、650MHz等,高端产品中还有800MHz或900MHz,乃至更高。 
显存频率与显存时钟周期是相关的,二者成倒数关系,也就是显存频率=1/显存时钟周期。如果是SDRAM显存,其时钟周期为6ns,那么它的显存频率就为1/6ns=166 MHz;而对于DDR SDRAM,其时钟周期为6ns,那么它的显存频率就为1/6ns=166 MHz,但要了解的是这是DDR SDRAM的实际频率,而不是我们平时所说的DDR显存频率。因为DDR在时钟上升期和下降期都进行数据传输,其一个周期传输两次数据,相当于SDRAM频率的二倍。习惯上称呼的DDR频率是其等效频率,是在其实际工作频率上乘以2,就得到了等效频率。因此6ns的DDR显存,其显存频率为1/6ns*2=333 MHz。但要明白的是显卡制造时,厂商设定了显存实际工作频率,而实际工作频率不一定等于显存最大频率。此类情况现在较为常见,如显存最大能工作在650 MHz,而制造时显卡工作频率被设定为550 MHz,此时显存就存在一定的超频空间。这也就是目前厂商惯用的方法,显卡以超频为卖点。

3)技术 
象素渲染管线:
渲染管线也称为渲染流水线,是显示芯片内部处理图形信号相互独立的的并行处理单元。 
在某种程度上可以把渲染管线比喻为工厂里面常见的各种生产流水线,工厂里的生产流水线是为了提高产品的生产能力和效率,而渲染管线则是提高显卡的工作能力和效率。 渲染管线的数量一般是以 像素渲染流水线的数量×每管线的纹理单元数量 来表示。例如,GeForce 6800Ultra的渲染管线是16×1,就表示其具有16条像素渲染流水线,每管线具有1个纹理单元;GeForce4 MX440的渲染管线是2×2,就表示其具有2条像素渲染流水线,每管线具有2个纹理单元等等,其余表示方式以此类推。 渲染管线的数量是决定显示芯片性能和档次的最重要的参数之一,在相同的显卡核心频率下,更多的渲染管线也就意味着更大的像素填充率和纹理填充率,从显卡的渲染管线数量上可以大致判断出显卡的性能高低档次。但显卡性能并不仅仅只是取决于渲染管线的数量,同时还取决于显示核心架构、渲染管线的的执行效率、顶点着色单元的数量以及显卡的核心频率和显存频率等等方面。 
一般来说在相同的显示核心架构下,渲染管线越多也就意味着性能越高,例如16×1架构的GeForce 6800GT其性能要强于12×1架构的GeForce 6800,就象工厂里的采用相同技术的2条生产流水线的生产能力和效率要强于1条生产流水线那样;而在不同的显示核心架构下,渲染管线的数量多就并不意味着性能更好,例如4×2架构的GeForce2 GTS其性能就不如2×2架构的GeForce4 MX440,就象工厂里的采用了先进技术的1条流水线的生产能力和效率反而还要强于只采用了老技术的2条生产流水线那样。


顶点着色引擎数 
顶点着色引擎(Vertex Shader),也称为顶点遮蔽器,根据官方规格,顶点着色引擎是一种增加各式特效在3D场影中的处理单元,顶点着色引擎的可程式化特性允许开发者靠加载新的软件指令来调整各式的特效,每一个顶点将被各种的数据变素清楚地定义,至少包括每一顶点的x、y、z坐标,每一点顶点可能包函的数据有颜色、最初的径路、材质、光线特征等。顶点着色引擎数越多速度越快。


3D API: 
API是Application Programming Interface的缩写,是应用程序接口的意思,而3D API则是指显卡与应用程序直接的接口。 
3D API能让编程人员所设计的3D软件只要调用其API内的程序,从而让API自动和硬件的驱动程序沟通,启动3D芯片内强大的3D图形处理功能,从而大幅度地提高了3D程序的设计效率。如果没有3D API在开发程序时,程序员必须要了解全部的显卡特性,才能编写出与显卡完全匹配的程序,发挥出全部的显卡性能。而有了3D API这个显卡与软件直接的接口,程序员只需要编写符合接口的程序代码,就可以充分发挥显卡的不必再去了解硬件的具体性能和参数,这样就大大简化了程序开发的效率。同样,显示芯片厂商根据标准来设计自己的硬件产品,以达到在API调用硬件资源时最优化,获得更好的性能。有了3D API,便可实现不同厂家的硬件、软件最大范围兼容。比如在最能体现3D API的游戏方面,游戏设计人员设计时,不必去考虑具体某款显卡的特性,而只是按照3D API的接口标准来开发游戏,当游戏运行时则直接通过3D API来调用显卡的硬件资源。 
目前个人电脑中主要应用的3D API有:DirectX和OpenGL。
RAMDAC频率和支持最大分辨率: 
RAMDAC是Random Access Memory Digital/Analog Convertor的缩写,即随机存取内存数字~模拟转换器。 
RAMDAC作用是将显存中的数字信号转换为显示器能够显示出来的模拟信号,其转换速率以MHz表示。计算机中处理数据的过程其实就是将事物数字化的过程,所有的事物将被处理成0和1两个数,而后不断进行累加计算。图形加速卡也是靠这些0和1对每一个象素进行颜色、深度、亮度等各种处理。显卡生成的都是信号都是以数字来表示的,但是所有的CRT显示器都是以模拟方式进行工作的,数字信号无法被识别,这就必须有相应的设备将数字信号转换为模拟信号。而RAMDAC就是显卡中将数字信号转换为模拟信号的设备。RAMDAC的转换速率以MHz表示,它决定了刷新频率的高低(与显示器的“带宽”意义近似)。其工作速度越高,频带越宽,高分辨率时的画面质量越好.该数值决定了在足够的显存下,显卡最高支持的分辨率和刷新率。如果要在1024×768的分辨率下达到85Hz的分辨率,RAMDAC的速率至少是1024×768×85×1.344(折算系数)÷106≈90MHz。目前主流的显卡RAMDAC都能达到350MHz和400MHz,已足以满足和超过目前大多数显示器所能提供的分辨率和刷新率。

4)PCB板
PCB是Printed Circuit Block的缩写,也称为印制电路板。就是显卡的躯体(绿色的板子),显卡一切元器件都是放在PCB板上的,因此PCB板的好坏,直接决定着显卡电气性能的好坏和稳定。 
层数 
目前的PCB板一般都是采用4层、6层、或8层,理论上来说层数多的比少的好,但前提是在设计合理的基础上。 
PCB的各个层一般可分为信号层(Signal),电源层(Power)或是地线层(Ground)。每一层PCB版上的电路是相互独立的。在4层PCB的主板中,信号层一般分布在PCB的最上面一层和最下面一层,而中间两层则是电源与地线层。相对来说6层PCB就复杂了,其信号层一般分布在1、3、5层,而电源层则有2层。至于判断PCB的优劣,主要是观察其印刷电路部分是否清晰明了,PCB是否平整无变形等等。 
显卡接口:
常见的有PCI、AGP 2X/4X/8X (目前已经淘汰),最新的是PCI-Express X16 接口,是目前的主流。 (最新的是PCI-Express 2.0 X16啊)

现在最常见的输出接口主要有:
VGA (Video Graphics Array) 视频图形阵列接口,作用是将转换好的模拟信号输出到CRT或者LCD显示器中 
DVI (Digital Visual Interface) 数字视频接口接口,视频信号无需转换,信号无衰减或失真,未来VGA接口的替代者。 
S-Video (Separate Video) S端子,也叫二分量视频接口,一般采用五线接头,它是用来将亮度和色度分离输出的设备,主要功能是为了克服视频节目复合输出时的亮度跟色度的互相干扰。 
HDMI(high Definition Multimedia Interface)高清晰多媒体接口,把声音和图像集成在一个接口上


散热装置:
散热装置的好坏也能影响到显卡的运行稳定性,常见的散热装置有:
被动散热:既只安装了铝合金或铜等金属的散热片。 
风冷散热:在散热片上加装了风扇,目前多数采用这种方法。 
水冷散热:通过热管液体把GPU和水泵相连,一般在高端顶级显卡中采用。


颜色:
很多人认为红色显卡的比绿色的好、绿色的比黄色的好,显卡的好坏和其颜色并没有什么关系,有的厂家喜用红色,有的喜用绿色,这是完全由生产商决定的。一些名牌大厂,那是早就形成了一定的风格的。因此,其PCB的颜色一般也不会有太大的变动。


常见品牌

目前显卡业的竞争也是日趋激烈。各类品牌名目繁多,以下是一些比较不错的牌子,仅供参考请不要太迷信了: 
蓝宝石(SAPPHIRE) 、华硕(ASUS)、富士康(Foxconn)、撼迅/迪兰恒进(PowerColor/Dataland)、丽台(Leadtek)、讯景(XFX)、映众(Inno3D) 
微星(MSI)、同德(Palit)、捷波(Jetway)、升技(Abit)、磐正(EPOX) 、映泰(Biostar) 、耕升(Gainward)、旌宇(SPARKLE) 、影驰(GALAXY) 、铭瑄(MAXSUN)、翔升(ASL)、盈通(YESTON) 、祺祥(M-ONE)、七彩虹(Colorful)、斯巴达克(SPARK)、索泰(ZOTAC)、双敏(Unika)、精英(ECS)、昂达(onda)、小影霸(HASEE)

 

发展简史:

1.CGA显卡
民用显卡的起源可以追溯到上个世纪的八十年代了。在1981年, IBM推出了个人电脑时,它提供了两种显卡,一种是"单色显卡(简称 MDA), 一种是 "彩色绘图卡" (简称 CGA), 从名字上就可以看出,MDA是与单色显示器配合使用的, 它可以显示80行x25列的文数字, CGA则可以用在RGB的显示屏上, 它可以绘制的图形和文数字资料。在当时来讲,计算机的用途主要是文字数据处理,虽然MDA分辨率为宽752点, 高504点,不足以满足多大的显示要求,不过对于文字数据处理还是绰绰有馀的了。而CGA就具有彩色和图形能力,能胜任一般的显示图形数据的需要了,不过其分辨率只有640x350,自然不能与现在的彩色显示同日而语。

2.MGA/MCGA显卡
1982年,IBM又推出了MGA(Monochrome Graphic Adapter), 又称Hercules Card (大力士卡), 除了能显示图形外,还保留了原来 MDA 的功能。当年不少游戏都需要这款卡才能显示动画效果。而当时风行市场的还有Genoa 公司做的EGA(Enhanced Graphics Adapter),即加强型绘图卡, 可以模拟MDA和CGA,而且可以在单色屏幕上一点一点画成的图形。EGA分辨率为640x350,可以产生16色的图形和文字。不过这些显卡都是采用数字方式的,直到MCGA(Multi-Color Graphics Array)的出现,才揭开了采用模拟方式的显卡的序幕。MCGA是整合在 PS/2 Model 25和30上的影像系统。它采用了Analog RGA影像信号, 分辨率可高达640x480, 数位RGB和类比RGB不同的地方就像是ON-OFF式切换和微调式切换之间的差别。用类比RGB讯号的显示屏, 会将每一个讯号的电压值转换成符合色彩明暗的范围。只有类比显示屏可以和MCGA一起使用,才可以提供最多的256种颜色, 另外IBM尚提供了一个类比单色显示屏, 在此显示屏上可以显示出64种明暗度。

3.VGA接口显卡
VGA(Video Graphic Array)即显示绘图阵列,它IBM是在其 PS/2 的Model 50, 60和80内建的影像系统。它的数字模式可以达到720x400色, 绘图模式则可以达到640x480x16色, 以及320x200x256色, 这是显卡首次可以同时最高显示256种色彩。而这些模式更成为其後所有显卡的共同标准。VGA显卡的盛行把电脑带进了2D显卡显示的辉煌时代。在以後一段时期里,许多VGA显卡设计的公司不断推陈出新, 追求更高的分辨率和位色。与此同时,IBM 推出了8514/A的Monitor显示屏规格, 主要用来支持1024x 768的分辨率。 
在2D时代向3D时代推进的过程中,有一款不能忽略的显卡就是Trident 8900/9000显卡,它第一次使显卡成为一个独立的配件出现在电脑里,而不再是集成的一块芯片。而後其推出的Trident 9685更是第一代3D显卡的代表。不过真正称得上开启3D显卡大门的却应该是GLINT 300SX,虽然其3D功能极其简单,但却具有里程碑的意义。

4. 3D AGP接口显卡时代
3DFX的光荣
时间推移到1995年,对于显卡来说,绝对是里程碑的一年,3D图形加速卡正式走入玩家的视野。那个时候游戏刚刚步入3D时代,大量的3D游戏的出现,也迫使显卡发展到真正的3D加速卡。而这一年也成就了一家公司,不用说大家也知道,没错,就是3Dfx。 1995年,3Dfx还是一家小公司,不过作为一家老资格的3D技术公司,他推出了业界的第一块真正意义的3D图形加速卡:Voodoo。在当时最为流行的游戏摩托英豪里,Voodoo在速度以及色彩方面的表现都让喜欢游戏的用户为之疯狂,不少游戏狂热份子都有过拿一千多块大洋到电脑城买上一块杂牌的Voodoo显卡的经历。3Dfx的专利技术Glide引擎接口一度称霸了整个3D世界,直至D3D和OpenGL的出现才改变了这种局面。Voodoo标配为4Mb EDO显存,能够提供在640×480分辨率下3D显示速度和最华丽的画面,当然,Voodoo也有硬伤,它只是一块具有3D加速功能的子卡,使用时需搭配一块具有2D功能的显卡,相信不少老资格的玩家都还记得S3 765+Voodoo这个为人津津乐道的黄金组合。讲到S3 765,就不得不提到昔日王者S3显卡了。

S3 765显卡是当时兼容机的标准配置,最高支持2MB EDO显存,能够实现高分辨率显示,这在当时属于高端显卡的功效,这一芯片真正将SVGA发扬光大。能够支持1024×768的分辨率,并且在低分辨率下支持最高32Bit真彩色,而且性价比也较强。因此,S3 765实际上为S3显卡带来了第一次的辉煌。 
而後在96年又推出了S3 Virge,它是一块融合了3D加速的显卡,支援 DirectX,并包含的许多先进的3D加速功能,如Z-buffering、Doubling buffering、Shading、Atmospheric effect、Lighting,实际成为3D显卡的开路先锋,成就了S3显卡的第二次辉煌,可惜後来在3Dfx的追赶下,S3的Virge系列没有再继辉煌,被市场最终抛弃。 
此後,为了修复Voodoo没有2D显示这个硬伤,3Dfx继而推出了VoodooRush,在其中加入了Z-Buffer技术,可惜相对于Voodoo,VoodooRush的3D性能却没有任何提升,更可怕的是带来不少兼容性的问题,而且价格居高不下的因素也制约了VoodooRush显卡的推广。

当然,当时的3D图形加速卡市场也不是3Dfx一手遮天,高高在上的价格给其他厂商留下了不少生存空间,像勘称当时性价比之王的Trident 9750/9850,以及提供提供了Mpeg-II硬件解码技术的SIS6326,还有在显卡发展史上第一次出场的nVidia推出的Riva128/128zx,都得到不少玩家的宠爱,这也促进了显卡技术的发展和市场的成熟。 1997年是3D显卡初露头脚的一年,而1998年则是3D显卡如雨後春笋激烈竞争的一年。九八年的3D游戏市场风起去涌,大量更加精美的3D游戏集体上市,从而让用户和厂商都期待出现更快更强的显卡。 
在Voodoo带来的巨大荣誉和耀眼的光环下,3Dfx以高屋建瓶之势推出了又一划时代的产品:Voodoo2。Voodoo2自带8Mb/12Mb EDO显存,PCI接口,卡上有双芯片,可以做到单周期多纹理运算。当然Voodoo2也有缺点,它的卡身很长,并且芯片发热量非常大,也成为一个烦恼,而且Voodoo2依然作为一块3D加速子卡,需要一块2D显卡的支持。但是不可否认,Voodoo2的推出已经使得3D加速又到达了一个新的里程碑,凭借Voodoo2的效果、画面和速度,征服了不少当时盛行一时的3D游戏,比如Fifa98,NBA98,Quake2等等。也许不少用户还不知道,今年最为流行的SLI技术也是当时Voodoo2的一个新技术,Voodoo2第一次支持双显卡技术,让两块Voodoo2并联协同工作获得双倍的性能。 
98年虽然是Voodoo2大放异彩的一年,但其他厂商也有一些经典之作。Matrox MGA G200在继承了自己超一流的2D水准以外,3D方面有了革命性的提高,不但可以提供和Voodoo2差不多的处理速度和特技效果,另外还支持DVD硬解码和视频输出,并且独一无二的首创了128位独立双重总线技术,大大提高了性能,配合当时相当走红的AGP总线技术,G200也赢得了不少用户的喜爱。 
Intel的I740是搭配Intel当时的440BX芯片组推出的,它支持的AGP 2X技术,标配8Mb显存,可惜I740的性能并不好,2D性能只能和S3 Virge看齐,而3D方面也只有Riva128的水平,不过价格方面就有明显优势,让它在低端市场站住了脚。 
Riva TNT是nVidia推出的意在阻击Voodoo2的产品,它标配16Mb的大显存,完全支持AGP技术,首次支持的32位色彩渲染、还有快于Voodoo2的D3D性能和低于Voodoo2的价格,让其成为不少玩家的新宠。而一直在苹果世界闯荡的ATI也出品了一款名为Rage Pro的显卡,速度比Voodoo稍快。

而98年的一个悲剧英雄是来自王者S3的野人系列Savage系列显卡,Savage3D采用128位总线结构及单周期三线性多重贴图技术,最大像素填充率达到了125M Pixels/s,三角形生成速率也达到了每秒500万个。通过S3新设计的AGP引擎和S3TC纹理压缩技术,支持Direct3D与OpenGL,最大显存容量可达8MB SGRAM或SDRAM,支持AGP 4×规范。同时也支持当时流行的如反射和散射、Alpha混合、多重纹理、衬底纹理、边缘抗锯齿、16/24位Z-buffering、Tri-linear Filtering(三线性过滤技术)、S3TC纹理压缩技术等技术。可惜就是受到驱动程序不兼容的严重影响,最终在99年时惨淡收场。
2000年8月,Intel推出AGP3.0规范,工作电压降到0.8V,并增加了8X模式,这样它的数据传输带宽达到了2133MB/sec,数据传输能力相对于AGP 4X成倍增长,能较好的满足当前显示设备的带宽需求。其发展已经经历了AGP 1×,AGP 2×,AGP 4×,AGP 8×几个阶段。关于AGP,是当前已经淘汰的图形系统接口。

5.PCI Express显卡接口
2001年春季的IDF上Intel正式公布PCI Express,是取代PCI总线的第三代I/O技术,也称为3GIO。该总线的规范由Intel支持的AWG(Arapahoe Working Group)负责制定。2002 年4月17日,AWG正式宣布3GIO 1.0规范草稿制定完毕,并移交PCI-SIG进行审核。开始的时候大家都以为它会被命名为Serial PCI(受到串行ATA的影响),但最后却被正式命名为PCI Express。2006年正式推出Spec2.0(2.0规范)。
PCI Express总线技术的演进过程,实际上是计算系统I/O接口速率演进的过程。PCI总线是一种33MHz@32bit或者66MHz@64bit的并行总线,总线带宽为133MB/s到最大533MB/s,连接在PCI总线上的所有设备共享133MB/s~533MB/s带宽。这种总线用来应付声卡、10/100M网卡以及UNB 1.1等接口基本不成问题。随着计算机和通信技术的进一步发展,新一代的I/O接口大量涌现,比如千兆(GE)、万兆(10GE)的以太网技术、4G/8G的FC技术,使得PCI总线的带宽已经无力应付计算系统内部大量高带宽并行读写的要求,PCI总线也成为系统性能提升的瓶颈,于是就出现了PCI Express总线。PCI Express总线技术在当今新一代的存储系统已经普遍的应用。PCI Express总线能够提供极高的带宽,来满足系统的需求。
目前,PCI-E 3.0规范也已经确定,其编码数据速率,比同等情况下的PCI-E 2.0规范提高了一倍,X32端口的双向速率高达320Gbps。
PCI Express总线的技术优势
PCI总线的最大优点是总线结构简单、成本低、设计简单,但是缺点也比较明显:
1) 并行总线无法连接太多设备,总线扩展性比较差,线间干扰将导致系统无法正常工作;
2) 当连接多个设备时,总线有效带宽将大幅降低,传输速率变慢;
3) 为了降低成本和尽可能减少相互间的干扰,需要减少总线带宽,或者地址总线和数据总线采用复用方式设计,这样降低了带宽利用率。 PCI Express总线是为将来的计算机和通讯平台定义的一种高性能,通用I/O互连总线。
  与PCI总线相比,PCI Express总线主要有下面的技术优势:
1) 是串行总线,进行点对点传输,每个传输通道独享带宽。
2) PCI Express总线支持双向传输模式和数据分通道传输模式。其中数据分通道传输模式即PCI Express总线的x1、x2、x4、x8、x12、x16和x32多通道连接,x1单向传输带宽即可达到250MB/s,双向传输带宽更能够达到500MB/s,这个已经不是普通PCI总线所能够相比的了。
3) PCI Express总线充分利用先进的点到点互连、基于交换的技术、基于包的协议来实现新的总线性能和特征。电源管理、服务质量(QoS)、热插拔支持、数据完整性、错误处理机制等也是PCI Express总线所支持的高级特征。
4) 与PCI总线良好的继承性,可以保持软件的继承和可靠性。PCI Express总线关键的PCI特征,比如应用模型、存储结构、软件接口等与传统PCI总线保持一致,但是并行的PCI总线被一种具有高度扩展性的、完全串行的总线所替代。
5) PCI Express总线充分利用先进的点到点互连,降低了系统硬件平台设计的复杂性和难度,从而大大降低了系统的开发制造设计成本,极大地提高系统的性价比和健壮性。从下面表格可以看出,系统总线带宽提高同时,减少了硬件PIN的数量,硬件的成本直接下降。
至2008年,PCI-E接口仍然在显卡中使用。

NVIDIA的崛起
1999年,世纪末的显卡市场出现了百花齐开的局面,而且这一年也让市场摆脱了3Dfx的一家独霸局面,由于战略的失误,让3Dfx失去了市场,它推出了Voodoo3,配备了16Mb显存,支持16色渲染。虽然在画质上无可挑剔,但是高昂的价格以及与市场格格不入的标准让它难掩颓势。世纪末的这一年,显卡的辉煌留给了nVidia。
现在,很多人都很习惯地把TNT2与nVidia联系在一起,不少人就是因为TNT2才认识NVidia的。在99年,nVidia挟TNT之馀威推出TNT2 Ultra、TNT2和TNT2 M64三个版本的芯片,後来又有PRO和VANTA两个版本。这种分类方式也促使後来各个生产厂家对同一芯片进行高中低端的划分,以满足不同层次的消费需要。TNT系列配备了8Mb到32Mb的显存,支持AGP2X/4X,支持32位渲染等等众多技术,虽然16位色下画面大大逊色于Voodoo3,但是在32位色下,表现却可圈可点,还有在16位色下,TNT2的性能已经略微超过Voodoo3了,不过客观的说,在32位色下,TNT系列显卡性能损失相当多,速度上跟不上Voodoo3了。当然,nVidia能战胜Voodoo3,与3Dfx公司推行的策略迫使许多厂商投奔nVidia也不无关系,促进了TNT系列的推广。显卡市场上出现了nVidia与3Dfx两家争霸的局面。
99年的显卡市场不可遗忘的还有来自Matrox MGA G400,它拥有16Mb/32Mb的显存容量,支持AGP 2X/4X,还有支持大纹理以及32位渲染等等,都是当时业界非常流行和肯定的技术,除此之外,独特、漂亮的EMBM硬件凹凸贴图技术,营造出的完美凹凸感并能实现动态光影效果的技术确实让无数游戏玩家为了疯狂,在3D方面,其速度和画面基本都是介于Voodoo3和TNT2之间,并且G400拥有优秀的DVD回放能力,不过由于价格以及它注重于OEM和专业市场,因此,在民用显卡市场所占的比例并不大!
从99年到2000年,nVidia终于爆发了。它在99年末推出了一款革命性的显卡---Geforce 256,彻底打败了3Dfx。代号NV10的GeForce 256支持Cube-Environment Mapping,完全的硬件T&L(Transform & Lighting),把原来有CPU计算的数据直接交给显示芯片处理,大大解放了CPU,也提高了芯片的使用效率。GeForce256拥有4条图形纹理信道,单周期每条信道处理两个象素纹理,工作频率120MHz,全速可以达到480Mpixels/Sec,支持SDRAM和DDR RAM,使用DDR的产品能更好的发挥GeForce256的性能。其不足之处就在于采用了0.22微米的工艺技术,发热量比较高。
而在两千年,nVidia开发出了第五代的3D图形加速卡---Geforce 2,采用了0.18微米的工艺技术,不仅大大降低了发热量,而且使得GeForce2的工作频率可以提高到200MHz。Geforce 2拥有四条图形纹理信道,单周期每条信道处理两个象素纹理,并且使用DDR RAM解决显存带宽不足的问题。在Geforce 256的基础上,GeForce2还拥有的NSR(NVIDIA Shading Rasterizer),支持Per-Pixel Shading技术,同时支持S3TC、FSAA、Dot-3 Bump Mapping以及硬件MPEG-2动态补偿功能,完全支持微软的DirectX 7。而面对不同的市场分级,它相继推出了低端的GF2 MX系列以及面向高端市场的GF2 Pro和GF GTS,全线的产品线让nVidia当之无愧地成为显卡的霸主。 
3Dfx在被nVidia收购之前还推出了Voodoo4/5,VooDoo4 4500使用一颗VSA-100芯片,VooDoo5 5500使用两颗VSA-100芯片,而VooDoo5 6000使用四颗VSA-100芯片,可惜由于各方面的原因,Voodoo4/5并不能让没落的3Dfx有一丝丝起色,最终难逃被nVidia收购的命运。 
而现在作为nVidia主要竞争对手的ATI,也在两千年凭借T&L技术打开市场。在经历“曙光女神”的失败後,ATI也推出了自己的T&L芯片RADEON 256,RADEON也和NVIDIA一样具有高低端的版本,完全硬件T&L,Dot3和环境映射凹凸贴图,还有两条纹理流水线,可以同时处理三种纹理。但最出彩的是HYPER-Z技术,大大提高了RADEON显卡的3D速度,拉近了与GEFORCE 2系列的距离,ATI的显卡也开始在市场占据主导地位。

两千年的低端市场还有来自Trident的这款Blade T64,Blade XP核心属于Trident第一款256位的绘图处理器,采用0.18微米的制造工艺,核心时钟频率为200 MHz,像素填充率达到1.6G,与Geforce2GTS处于同一等级,支持Direct X7.0等等。可惜由于驱动程序以及性能等方面的原因,得不到用户的支持。

NV/ATI上演铁面双雄
踏入2001年以後,如同桌面处理器市场的Intel和AMD一样,显卡市场演变为nVidia与ATI两雄争霸的局势。nVidia方面,凭借刚刚推出的Geforce 3系列占据了不少市场,Geforce 3 Ti 500,Geforce 2 Ti和Geforce 3Ti,Geforce MX分别定位于高中低三线市场。与GeForce 2系列显卡相比,GeForce 3显卡最主要的改进之处就是增加了可编程T&L功能,能够对几乎所有的画面效果提供硬件支持。GeForce 3总共具有4条像素管道,填充速率最高可以达到每秒钟800 Mpixels。Geforce 3系列还拥有nfiniteFX顶点处理器、nfiniteFX像素处理器以及Quincunx抗锯齿系统等技术。
而作为与之相抗衡的ATI Radeon 8500/7500系列,采用0.15微米工艺制造,包括6000万个晶体管,采用了不少新技术(如Truform、Smartshader等)。并根据显卡的核心/显存工作频率分成不同的档次——核心/显存分别为275/550MHz的标准版,核心/显存为250/500MHz的RADEON 8500LE,生产核心/显存频率分别为300/600MHz的Ultra版,以及中端的Radeon 7500,低端的Radeon 7200,7000等产品。值得一提的是Radeon 8500还支持双头显示技术。
2002年,nVidia与ATI的竞争更加白热化。为巩固其图形芯片市场霸主地位,nVidia推出了Geforce 4系列,分别为GeForce4 Ti4800,GeForce4 Ti 4600, GeForce4 Ti4400, GeForce4 Ti4200,GeForce4 MX 460, GeForce4 MX 440 和 GeForce4 MX 420。GeForce4 Ti系列无疑是最具性价比的,其代号是NV25,它主要针对当时的高端图形市场,是DirectX 8时代下最强劲的GPU图形处理器。芯片内部包含的晶体管数量高达6千3百万,使用0.15微米工艺生产,采用了新的PBGA封装,运行频率达到了300MHz,配合频率为650MHz DDR显存,可以实现每秒49亿次的采样。GeForce4 Ti核心内建4条渲染流水线,每条流水线包含2个TMU(材质贴图单元)。Geforce 4系列从高到低,横扫了整个显卡市场。
作为反击,ATI出品了R9700/9000/9500系列,首次支持DirectX 9,使其在与NVidia的竞争中抢得先机。而R9700更是在速度与性能方面首次超越NVidia。R9700支持AGP 8X、DirectX 9,核心频率是300MHz,显存时钟是550MHz。RADEON 9700,实现了可程序化的革命性硬件架构。符合绘图回事商品AGP 8X最新标准,配有8个平等处理的彩绘管线,每秒可处理25亿个像素,4个并列的几何处理引擎更能处理每秒3亿个形迹及光效多边形。而R9000是面向低端的产品,R9500则直挑Ti4200。
同年,SiS发布了Xabre系列。它是第一款AGP 8×显卡,全面支持DirectX 8.1,在发布之时是相当抢眼的。Xabre系列图形芯片采用0.15微米工艺,具备4条像素渲染流水线,并且每条流水线拥有两个贴图单元。理论上可提供高达1200M Pixels/s的像素填充率和2400M Texels/s的材质填充率。随後发布的Xabre600,采用0.13微米工艺,主频和显存频率都提高了不少,性能与GeForce4 Ti4200差不多。
2003年的显卡市场依旧为N系与A系所统治。nVidia的Gf FX 5800(NV30)系列拥有32位着色,颜色画面有质的提高,在基础上推出的GeForce FX 5900,提高了晶体管数,降低了核心频率与显存频率,改用了256B99v DDR以提高了显存带宽。後半年还推出了GF FX 5950/5700系列,以取代GF FX 5900/5600。而ATI推出了RADEON 9800/pro/SE/XT,凭借其超强的性能以及较价的售价,再次打败GF GX 5800。这一年市场上的主流产品还有GF FX5600,GF FX5200和RADEON 9600和RADEON 9200。

2004年也是ATI大放异彩的一年,不过其最大的功臣却是来自于面向中低端的Radeon 9550。这款2004年最具性价比的显卡,让ATI在低端市场呼风唤雨。R9550基于RV350核心,采用0.13微米制程,核心频率为250MHz,显存频率为400MHz,4条渲染管道,1个纹理单元,同时兼容64bit和128bit。这款产品是9600的降频版,但是通过改造,都可以变成R9600,性价比极强。而老对手的N卡方面,却只推出了一款新品GF FX 5900XT/SE,而与R9550处于同一竞争线的5200,5500与5700LE系列,虽然性能不错,可惜价格却没有优势,被R9550彻底打败。2004年让nVidia郁闷了一整年。

ATi从05年开始就一直被Nvidia压制,无论是1950XTX对抗7900GTX,2900XT对抗8800GTX,3870X2对抗9800GX2,在旗舰产品上,ATi一直属于劣势,但在2008年6月发生了转机,ATi发布了RV770,无论是从市场定价还是从性能上都是十分让人满意的,特别是改善了A卡在AA上的性能不足,RV770的中端4850的价格更是让Nvidia措手不及,无奈在一周内9800GTX降价1000元,但无论是性能还是价格依旧挡不住4850的攻势,4870紧接着发布,采用DDR5显存的RV770浮点运算能力更是达到了1TB/S,Nvidia发布的新核心GT200的旗舰版本GTX280虽然在性能上暂时取得了暂时的领先,但是和4870相比只有10%的性能差距,而且由于工艺较落后,导致成本过高,没有性价比,就在人们以为ATi放弃旗舰,准备走性价比路线时,ATi推出了R700,也就是4870X2,并且大幅度改良了桥接芯片的性能,领先GTX280高达50-80%,而GTX280的核心面积已经大的KB,不可能衍生出单卡双芯,所以ATi依靠单卡双芯重新夺得了性能之王。

 


市场前景:
  目前,显卡进入到PCI-E平台的时代。nVidia的G92系列,GT200系列,与之对应的ATI的RV670系列,RV770系列,让整个显示市场呈现百花齐放的局面,相信以後的显卡市场的竞争将会更加的激烈,而普通的消费者也将得到更多的实惠。 
  时间从1981年翻到了2008年,28年的显卡发展史,感觉就像经历了几个世纪。从最初只能显示文字数字,到现在多姿多彩的图形画面,显卡的迅猛发展让玩家的视觉享受得到质的飞越,而且这种趋势还将继续下去,无法想象,再过一个25年,显卡会带给我们什么样的感受,问题可能是,到时还会有显卡吗。[ (注:ATI已经被AMD全面收购)AMD计划打造一个新的x86处理器系列,将中央处理器(CPU)和图形处理器(GPU)在芯片级别上整合在一起,该产品的开发代号为“Fusion”。 ] 
  

CPU是否能够代替GPU?
  CPU 老大Intel夸下海口能在三年内让CPU取代GPU,并且详解了其工作原理,并且CPU渲染能比GPU带来更好的画质,究竟GPU的未来如何?假如CPU拥有了GPU的能力,还能不能叫做CPU?让我们拭目以待.


『Intel有可能会改变显卡发展轨迹』
关于08年初CPU巨头Itel与NVIDIA关于“显卡与CPU究竟谁会取代谁”的争论已经过去。现在的用户也可以感觉到,CPU似乎并不是那么的重要了,在你日常的工作学习中,CPU的比重越来越小。很多时候,我们只需要CPU出一点点力就能满足我们的大部分需求.作为Intel,又怎么会不知道其中的意义呢?
“我们所需要的是一种哦哦那个结合CPU完整程序功能,但又具备绘图处理器平行性能的架构。”Inte视觉运算部门资深首席工程师Larry Seiler这样说。
Intel在2009年推出Larrabee独立显卡,以现有的Intel×486的核心技术为基础设计出来的,内建8-48个核心,每个核心超高速互联,可提高芯片在同时执行多任务工作时的处理速度。Larrabee独立显卡的推出很有可能改变多年来显卡厂商一味追求GPU性能,而不顾功耗的格局,有希望产生性能更强,但功耗更低的显卡产品。
按Intel的说法,我们可以预测,将来的显卡很有可能会取代CPU而成为新一代计算机的核心。

----------------------------------------------
下面的显卡介绍来自维基百科
显卡(Video card,Graphics card),又叫显示卡、显示适配卡(video adapter)或显示适配器卡,是个人电子计算机最基本组成部分之一。显卡的用途是将计算机系统所需要的显示信息进行转换驱动显示器,并向显示器提供行扫描信号,控制显示器的正确显示,是联接显示器和个人电子计算机主板的重要组件,是“人机对话”的重要设备之一。
适用类型 
台式机显卡—普通显卡 
普通显卡就是普通台式机内所采用的显卡产品,也就是DIY市场内最为常见的显卡产品。之所以叫它普通显卡是相对于应用于图形工作站上的专业显卡产品而言的,。普通显卡更多注重于民用级应用,更强调的是在用户能接受的价位下提供更强大的娱乐、办公、游戏、多媒体等方面的性能;而专业显卡则强调的是强大的性能、稳定性、绘图的精确等方面。目前设计制造普通显卡显示芯片的厂家主要有NVIDIA、ATI、SIS等,但主流的产品都是采用NVIDIA、ATI的显示芯片。

 


工作站显卡—专业显示卡 
专业显示卡是指应用于图形工作站上的显示卡,它是图形工作站的核心。从某种程度上来说,在图形工作站上它的重要性甚至超过了CPU。与针对游戏、娱乐和办公市场为主的消费类显卡相比,专业显示卡主要针对的是三维动画软件(如3DS Max、Maya、Softimage|3D等)、渲染软件(如LightScape、3DS VIZ等)、CAD软件(如AutoCAD、Pro/Engineer、Unigraphics、SolidWorks等)、模型设计(如Rhino)以及部分科学应用等专业应用市场。专业显卡针对这些专业图形图像软件进行必要的优化,都有着极佳的兼容性。

普通家用显卡主要针对Direct 3D加速,而专业显示卡则是针对OpenGL来加速的。OpenGL(Open Graphics Library开放图形库)是目前科学和工程绘图领域无可争辩的图形技术标准。OpenGL最初由SGI公司提出,在Win95、98及Windows NT/Windows 2000中均得到支持。OpenGL注重于快速绘制2D和3D物体用于CAD、仿真、科学应用可视化和照片级真实感的游戏视景中。它是一个开放的三维图形软件包,它独立于窗口系统和操作系统,能十分方便地在各平台间移植,它具有开放性、独立性和兼容性三大特点。

专业显示卡在多边形产生速度或是像素填充率等指标上都要优于普通显卡,同时在调整驱动程序以及提供绘图的精确性方面也要强很多。与普通显卡注重的生产成本不同,专业显卡更强调性能以及稳定性,而且受限于用户群体较少,产量很小,因此专业显卡的价格都极为昂贵,不是普通用户所能承受的。

目前专业显卡厂商有3DLabs、NVIDIA和ATI等几家公司,3DLabs公司主要有“强氧(OXYGEN)”和“野猫(Wildcat)”两个系列的产品,是一家专注于设计、制造专业显卡的厂家。NVIDIA公司一直在家用显卡市场的中坚力量,专业显卡领域是近几年才开始涉足,但凭借其雄厚的技术力量,其Quadro系列显卡在专业市场也取得了很大的成功。ATI公司同样也是涉足专业显卡时间不长,它是在收购了原来“帝盟(DIAMOND)”公司的FireGL分部后,才开始推出自己的专业显卡,目前FireGL同样也有不俗的表现。市场还有艾尔莎、丽台等公司也在生产专业显卡,但其并不自主开发显示芯片,而都采用上面三家公司的显示芯片,生产自有品牌的专业显卡。


显卡最大分辨率
显卡的最大分辨率是指显卡在显示器上所能描绘的像素点的数量。大家知道显示器上显示的画面是一个个的像素点构成的,而这些像素点的所有数据都是由显卡提供的,最大分辨率就是表示显卡输出给显示器,并能在显示器上描绘像素点的数量。分辨率越大,所能显示的图像的像素点就越多,并且能显示更多的细节,当然也就越清晰。

最大分辨率在一定程度上跟显存有着直接关系,因为这些像素点的数据最初都要存储于显存内,因此显存容量会影响到最大分辨率。在早期显卡的显存容量只具有512KB、1MB、2MB等极小容量时,显存容量确实是最大分辨率的一个瓶颈;但目前主流显卡的显存容量,就连64MB也已经被淘汰,主流的娱乐级显卡已经是128MB、256MB或512MB,某些专业显卡甚至已经具有1GB的显存,在这样的情况下,显存容量早已经不再是影响最大分辨率的因素,之所以需要这么大容量的显存,不过就是因为现在的大型3D游戏和专业渲染需要临时存储更多的数据罢了。

现在决定最大分辨率的其实是显卡的RAMDAC频率,目前所有主流显卡的RAMDAC都达到了400MHz,至少都能达到2048x1536的最大分辨率,而最新一代显卡的最大分辨率更是高达2560x1600了。

另外,显卡能输出的最大显示分辨率并不代表自己的电脑就能达到这么高的分辨率,还必须有足够强大的显示器配套才可以实现,也就是说,还需要显示器的最大分辨率与显卡的最大分辨率相匹配才能实现。例如要实现2048x1536的分辨率,除了显卡要支持之外,还需要显示器也要支持。而CRT显示器的最大分辨率主要是由其带宽所决定,而液晶显示器的最大分辨率则主要由其面板所决定。目前主流的显示器,17英寸的CRT其最大分辨率一般只有1600x1200,17英寸和19英寸的液晶则只有1280x1024,所以目前在普通电脑系统上最大分辨率的瓶颈不是显卡而是显示器。要实现2048x1536甚至2560x1600的最大分辨率,只有借助于专业级的大屏幕高档显示器才能实现,例如DELL的30英寸液晶显示器就能实现2560x1600的超高分辨率。

 

显存容量:
显存容量是显卡上本地显存的容量数,这是选择显卡的关键参数之一。显存容量的大小决定着显存临时存储数据的能力,在一定程度上也会影响显卡的性能。显存容量也是随着显卡的发展而逐步增大的,并且有越来越增大的趋势。显存容量从早期的512KB、1MB、2MB等极小容量,发展到8MB、12MB、16MB、32MB、64MB,一直到目前主流的128MB、256MB和高档显卡的512MB,某些专业显卡甚至已经具有1GB的显存了。

在显卡最大分辨率方面,最大分辨率在一定程度上跟显存有着直接关系,因为这些像素点的数据最初都要存储于显存内,因此显存容量会影响到最大分辨率。在早期显卡的显存容量只具有512KB、1MB、2MB等极小容量时,显存容量确实是最大分辨率的一个瓶颈;但目前主流显卡的显存容量,就连64MB也已经被淘汰,主流的娱乐级显卡已经是128MB、256MB或512MB,某些专业显卡甚至已经具有1GB的显存,在这样的情况下,显存容量早已经不再是影响最大分辨率的因素。

在显卡性能方面,随着显示芯片的处理能力越来越强大,特别是现在的大型3D游戏和专业渲染需要临时存储的数据也越来越多,所需要的显存容量也是越来越大,显存容量在一定程度上也会影响到显卡的性能。例如在显示核心足够强劲而显存容量比较小的情况下,却有大量的大纹理贴图数据需要存放,如果显存的容量不足以存放这些数据,那么显示核心在某些时间就只有闲置以等待这些数据处理完毕,这就影响了显示核心性能的发挥从而也就影响到了显卡的性能。

值得注意的是,显存容量越大并不一定意味着显卡的性能就越高,因为决定显卡性能的三要素首先是其所采用的显示芯片,其次是显存带宽(这取决于显存位宽和显存频率),最后才是显存容量。一款显卡究竟应该配备多大的显存容量才合适是由其所采用的显示芯片所决定的,也就是说显存容量应该与显示核心的性能相匹配才合理,显示芯片性能越高由于其处理能力越高所配备的显存容量相应也应该越大,而低性能的显示芯片配备大容量显存对其性能是没有任何帮助的。例如市售的某些配备了512MB大容量显存的Radeon 9550显卡在显卡性能方面与128MB显存的Radeon 9550显卡在核心频率和显存频率等参数都相同时是完全一样的,因为Radeon 9550显示核心相对低下的处理能力决定了其配备大容量显存其实是没有任何意义的,而大容量的显存反而还带来了购买成本提高的问题。

 

显存频率:
显存频率是指默认情况下,该显存在显卡上工作时的频率,以MHz(兆赫兹)为单位。显存频率一定程度上反应着该显存的速度。显存频率随着显存的类型、性能的不同而不同,SDRAM显存一般都工作在较低的频率上,一般就是133MHz和166MHz,此种频率早已无法满足现在显卡的需求。DDR SDRAM显存则能提供较高的显存频率,主要在中低端显卡上使用,DDR2显存由于成本高并且性能一般,因此使用量不大。DDR3显存是目前高端显卡采用最为广泛的显存类型。不同显存能提供的显存频率也差异很大,主要有400MHz、500MHz、600MHz、650MHz等,高端产品中还有800MHz、1200MHz、1600MHz,甚至更高。

显存频率与显存时钟周期是相关的,二者成倒数关系,也就是显存频率=1/显存时钟周期。如果是SDRAM显存,其时钟周期为6ns,那么它的显存频率就为1/6ns=166 MHz。而对于DDR SDRAM或者DDR2、DDR3,其时钟周期为6ns,那么它的显存频率就为1/6ns=166 MHz,但要了解的是这是DDR SDRAM的实际频率,而不是我们平时所说的DDR显存频率。因为DDR在时钟上升期和下降期都进行数据传输,其一个周期传输两次数据,相当于SDRAM频率的二倍。习惯上称呼的DDR频率是其等效频率,是在其实际工作频率上乘以2,就得到了等效频率。因此6ns的DDR显存,其显存频率为1/6ns*2=333 MHz。具体情况可以看下边关于各种显存的介绍。

但要明白的是显卡制造时,厂商设定了显存实际工作频率,而实际工作频率不一定等于显存最大频率。此类情况现在较为常见,如显存最大能工作在650 MHz,而制造时显卡工作频率被设定为550 MHz,此时显存就存在一定的超频空间。这也就是目前厂商惯用的方法,显卡以超频为卖点。此外,用于显卡的显存,虽然和主板用的内存同样叫DDR、DDR2甚至DDR3,但是由于规范参数差异较大,不能通用,因此也可以称显存为GDDR、GDDR2、GDDR3


显存带宽:
显存带宽是指显示芯片与显存之间的数据传输速率,它以字节/秒为单位。显存带宽是决定显卡性能和速度最重要的因素之一。要得到精细(高分辨率)、色彩逼真(32位真彩)、流畅(高刷新速度)的3D画面,就必须要求显卡具有大显存带宽。目前显示芯片的性能已达到很高的程度,其处理能力是很强的,只有大显存带宽才能保障其足够的数据输入和输出。随着多媒体、3D游戏对硬件的要求越来越高,在高分辨率、32位真彩和高刷新率的3D画面面前,相对于GPU,较低的显存带宽已经成为制约显卡性能的瓶颈。显存带宽是目前决定显卡图形性能和速度的重要因素之一。

显存带宽的计算公式为:

显存带宽=工作频率×显存位宽/8。
目前大多中低端的显卡都能提供6.4GB/s、8.0GB/s的显存带宽,而对于高端的显卡产品则提供超过20GB/s的显存带宽。在条件允许的情况下,尽可能购买显存带宽大的显卡,这是一个选择的关键。

 

显存类型:
作为显示卡的重要组成部分,显存一直随着显示芯片的发展而逐步改变着。从早期的EDORAM、MDRAM、SDRAM、SGRAM、VRAM、WRAM等到今天广泛采用的DDR SDRAM显存经历了很多代的进步。

目前市场中所采用的显存类型主要有SDRAM,DDR SDRAM,DDR SGRAM三种。SDRAM颗粒目前主要应用在低端显卡上,频率一般不超过200MHz,在价格和性能上它比DDR都没有什么优势,因此逐渐被DDR取代。DDR SDRAM是市场中的主流(包括DDR2和DDR3),一方面是工艺的成熟,批量的生产导致成本下跌,使得它的价格便宜;另一方面它能提供较高的工作频率,带来优异的数据处理性能。至于DDR SGRAM,它是显卡厂商特别针对绘图者需求,为了加强图形的存取处理以及绘图控制效率,从同步动态随机存取内存(SDRAM)所改良而得的产品。SGRAM允许以方块 (Blocks) 为单位个别修改或者存取内存中的资料,它能够与中央处理器(CPU)同步工作,可以减少内存读取次数,增加绘图控制器的效率,尽管它稳定性不错,而且性能表现也很好,但是它的超频性能很差劲,目前也极少使用。

 

显卡插槽:
接口类型是指显卡与主板连接所采用的接口种类。显卡的接口决定着显卡与系统之间数据传输的最大带宽,也就是瞬间所能传输的最大数据量。不同的接口决定着主板是否能够使用此显卡,只有在主板上有相应接口的情况下,显卡才能使用,并且不同的接口能为显卡带来不同的性能。

目前各种3D游戏和软件对显卡的要求越来越高,主板和显卡之间需要交换的数据量也越来越大,过去的插槽早已不能满足这样大量的数据交换,因此通常主板上都带有专门插显卡的插槽。假如显卡插槽的传输速度不能满足显卡的需求,显卡的性能就会受到巨大的限制,再好的显卡也无法发挥。显卡发展至今主要出现过ISA、PCI、AGP、PCI Express等几种接口,所能提供的数据带宽依次增加。其中2004年推出的PCI Express接口已经成为主流,以解决显卡与系统数据传输的瓶颈问题,而ISA、PCI接口的显卡已经基本被淘汰。
另外说到显卡插槽,有一种情况需要说明,就是有些主板受芯片组的限制,本身无法带有专门的显卡接口,比如AGP或者PCI Express接口。但是主板厂商通过特殊方式,在主板上做了相应的显卡插槽,可以连接相应接口的显卡,不过这种插槽实际远远无法达到应有的速度,只能算比没有略好一些,典型的例子就是下边提到的AGI、AGU插槽。什么样的主板会出现这种情况呢?首先一般是使用集成了显卡的芯片组的主板才会有这种情况,例如使用了845GL的主板;而没有集成显卡的主板几乎不会有这种情况,只有极个别例外,例如使用VIA PT880 Pro芯片组的主板如果带有PCI Express插槽,那么速度只能是4X,而不是应有的16X。而对于集成了显卡的主板,其显卡插槽是否名副其实,主要看芯片组的支持,其中非Intel芯片组很少有这种情况,具体可以通过下边的连接查看各个芯片组的详细资料。

显示芯片:
显示芯片是显卡的核心芯片,它的性能好坏直接决定了显卡性能的好坏,它的主要任务就是处理系统输入的视频信息并将其进行构建、渲染等工作。显示主芯片的性能直接决定了显示卡性能的高低。不同的显示芯片,不论从内部结构还是其性能,都存在着差异,而其价格差别也很大。显示芯片在显卡中的地位,就相当于电脑中CPU的地位,是整个显卡的核心。

 


生产厂商 
(1)nVIDIA 占据半数以上显卡芯片市场份额和桌面产品市场份额。

(2)ATI 与nVIDIA抗衡的一家,掌握了四成以上的桌面市场份额。

(3)Matrox 主攻商用市场,价格稍高,代表作:G400系列和Perhelie系列。

(4)SIS 在廉价的前提下提供了视频压缩性能(可获得很好画质),代表作:Xabre系列.


常见的整合芯片组有:

①SIS630/730/740,集成有SIS300图形内核。

②Aladdin TNT2,集成了nVIDIA RIVA TNT2图形内核。

③Intel i815E,集成了i752图形内核。

④Intel i845G/i865G,集成了Intel Extreme Graphic1/2图形内核


2D显示芯片

--在处理3D图像和特效时主要依赖CPU的处理能力,称为“软加速”


3D显示芯片

--在处理3D图形时能承担许多原来由CPU处理的3D图形处理任务, 减轻了CPU的负担,加快了3D图形处理速度。也称为“硬加速”

显示芯片制作工艺:
显示芯片的制造工艺与CPU一样,也是用微米来衡量其加工精度的。制造工艺的提高,意味着显示芯片的体积将更小、集成度更高,可以容纳更多的晶体管,性能会更加强大,功耗也会降低。

和中央处理器一样,显示卡的核心芯片,也是在硅晶片上制成的。采用更高的制造工艺,对于显示核心频率和显示卡集成度的提高都是至关重要的。而且重要的是制程工艺的提高可以有效的降低显卡芯片的生产成本。目前的显示芯片制造商中,NVIDIA公司已全面采用了0.13微米的制造工艺,就是其FX5900显示核心之所以能集成一亿两千五百万个晶体管的根本原因。而ATI公司主要还是在使用0.15微米的制造工艺,比如其高端的镭9800XT和镭9800 Pro显卡,部分产品采用更先进的0.13微米制造工艺,比如其镭9600显卡。

微电子技术的发展与进步,主要是靠工艺技术的不断改进,使得器件的特征尺寸不断缩小,从而集成度不断提高,功耗降低,器件性能得到提高。显示芯片制造工艺在1995年以后,从0.5微米、0.35微米、0.25微米、0.18微米、0.15微米、0.13微米、0.11微米一直发展到目前最新的90纳米,而未来则会以80纳米作为一个过渡,然后进一步发展到65纳米。总的说来,显示芯片在制造工艺方面基本上总是要落后于CPU的制造工艺一个时代,例如CPU采用0.13微米工艺时显示芯片还在采用0.18微米工艺和0.15微米工艺,CPU采用90纳米工艺时显示芯片则还在使用0.13微米工艺和0.11微米工艺,而现在CPU已经采用65纳米工艺了而显示芯片则刚进入90纳米工艺。

提高显示芯片的制造工艺具有重大的意义,因为更先进的制造工艺会在显示芯片内部集成更多的晶体管,使显示芯片实现更高的性能、支持更多的特效;更先进的制造工艺会使显示芯片的核心面积进一步减小,也就是说在相同面积的晶圆上可以制造出更多的显示芯片产品,直接降低了显示芯片的产品成本,从而最终会降低显卡的销售价格使广大消费者得利;更先进的制造工艺还会减少显示芯片的功耗,从而减少其发热量,解决显示芯片核心频率提升的障碍.....显示芯片自身的发展历史也充分的说明了这一点,先进的制造工艺使显卡的性能和支持的特效不断增强,而价格则不断下滑,例如售价为1500左右的中端显卡GeForce 7600GT其性能就足以击败上一代售价为5000元左右的顶级显卡GeForce 6800Ultra。

采用更低制造工艺的显示芯片也不是一定代表有更高的性能,因为显示芯片设计思路也各不同相同,并不能单纯已制造工艺来衡量其性能。最明显的就是NVDIVA的GeForce FX5950和ATI的Radeon 9800XT,9800XT采用0.15微米制造工艺,而FX5950采用更为先进的0.13微米制造工艺,但在性能表现上,Radeon 9800XT则要略胜一筹。

显示芯片位宽:
显示芯片位宽是指显示芯片内部数据总线的位宽,也就是显示芯片内部所采用的数据传输位数,目前主流的显示芯片基本都采用了256位的位宽,采用更大的位宽意味着在数据传输速度不变的情况,瞬间所能传输的数据量越大。就好比是不同口径的阀门,在水流速度一定的情况下,口径大的能提供更大的出水量。显示芯片位宽就是显示芯片内部总线的带宽,带宽越大,可以提供的计算能力和数据吞吐能力也越快,是决定显示芯片级别的重要数据之一。目前已推出最大显示芯片位宽是512位,那是由Matrox(幻日)公司推出的Parhelia-512显卡,这是世界上第一颗具有512位宽的显示芯片。而目前市场中所有的主流显示芯片,包括NVIDIA公司的GeForce系列显卡,ATI公司的Radeon系列等,全部都采用256位的位宽。这两家目前世界上最大的显示芯片制造公司也将在未来几年内采用512位宽。

显示芯片位宽增加并不代表该芯片性能更强,因为显示芯片集成度相当高,设计、制造都需要很高的技术能力,单纯的强调显示芯片位宽并没有多大意义,只有在其它部件、芯片设计、制造工艺等方面都完全配合的情况下,显示芯片位宽的作用才能得到体现。

 

(4):下面紧接着介绍GPU
GPU


概念:
GPU英文全称Graphic Processing Unit,中文翻译为“图形处理器”。GPU是相对于CPU的一个概念,由于在现代的计算机中(特别是家用系统,游戏的发烧友)图形的处理变得越来越重要,需要一个专门的图形的核心处理器。

GPU的作用:
GPU是显示卡的“心脏”,也就相当于CPU在电脑中的作用,它决定了该显卡的档次和大部分性能,同时也是2D显示卡和3D显示卡的区别依据。2D显示芯片在处理3D图像和特效时主要依赖CPU的处理能力,称为“软加速”。3D显示芯片是将三维图像和特效处理功能集中在显示芯片内,也即所谓的“硬件加速”功能。显示芯片通常是显示卡上最大的芯片(也是引脚最多的)。现在市场上的显卡大多采用NVIDIA和ATI两家公司的图形处理芯片。

于是NVIDIA公司在1999年发布GeForce 256图形处理芯片时首先提出GPU的概念。GPU使显卡减少了对CPU的依赖,并进行部分原本CPU的工作,尤其是在3D图形处理时。GPU所采用的核心技术有硬体T&L、立方环境材质贴图和顶点混合、纹理压缩和凹凸映射贴图、双重纹理四像素256位渲染引擎等,而硬体T&L技术可以说是GPU的标志。

简单说GPU就是能够从硬件上支持T&L(Transform and Lighting,多边形转换与光源处理)的显示芯片,因为T&L是3D渲染中的一个重要部分,其作用是计算多边形的3D位置和处理动态光线效果,也可以称为“几何处理”。一个好的T&L单元,可以提供细致的3D物体和高级的光线特效;只不过大多数PC中,T&L的大部分运算是交由CPU处理的(这就也就是所谓的软件T&L),由于CPU的任务繁多,除了T&L之外,还要做内存管理、输入响应等非3D图形处理工作,因此在实际运算的时候性能会大打折扣,常常出现显卡等待CPU数据的情况,其运算速度远跟不上今天复杂三维游戏的要求。即使CPU的工作频率超过1GHz或更高,对它的帮助也不大,由于这是PC本身设计造成的问题,与CPU的速度无太大关系。

GPU与DSP的区别:
GPU在几个主要方面有别于DSP架构。其所有计算均使用浮点算法,而且目前还没有位或整数运算指令。此外,由于GPU专为图像处理设计,因此存储系统实际上是一个二维的分段存储空间,包括一个区段号(从中读取图像)和二维地址(图像中的X、Y坐标)。此外,没有任何间接写指令。输出写地址由光栅处理器确定,而且不能由程序改变。这对于自然分布在存储器之中的算法而言是极大的挑战。最后一点,不同碎片的处理过程间不允许通信。实际上,碎片处理器是一个SIMD数据并行执行单元,在所有碎片中独立执行代码。

尽管有上述约束,但是GPU还是可以有效地执行多种运算,从线性代数和信号处理到数值仿真。虽然概念简单,但新用户在使用GPU计算时还是会感到迷惑,因为GPU需要专有的图形知识。这种情况下,一些软件工具可以提供帮助。两种高级描影语言CG和HLSL能够让用户编写类似C的代码,随后编译成碎片程序汇编语言。Brook是专为GPU计算设计,且不需要图形知识的高级语言。因此对第一次使用GPU进行开发的工作人员而言,它可以算是一个很好的起点。Brook是C语言的延伸,整合了可以直接映射到GPU的简单数据并行编程构造。经 GPU存储和操作的数据被形象地比喻成“流”(stream),类似于标准C中的数组。核心(Kernel)是在流上操作的函数。在一系列输入流上调用一个核心函数意味着在流元素上实施了隐含的循环,即对每一个流元素调用核心体。Brook还提供了约简机制,例如对一个流中所有的元素进行和、最大值或乘积计算。Brook还完全隐藏了图形API的所有细节,并把GPU中类似二维存储器系统这样许多用户不熟悉的部分进行了虚拟化处理。用Brook编写的应用程序包括线性代数子程序、快速傅立叶转换、光线追踪和图像处理。利用ATI的X800XT和Nvidia的GeForce 6800 Ultra型GPU,在相同高速缓存、SSE汇编优化Pentium 4执行条件下,许多此类应用的速度提升高达7倍之多。

对GPU计算感兴趣的用户努力将算法映射到图形基本元素。类似Brook这样的高级编程语言的问世使编程新手也能够很容易就掌握GPU的性能优势。访问GPU计算功能的便利性也使得GPU的演变将继续下去,不仅仅作为绘制引擎,而是会成为个人电脑的主要计算引擎。

GPU识别软件:
说起处理器识别工具CPU-Z,其知名度和必备度无需赘言。硬件网站TechPowerUp.com现在又给我们提供了一个类似的工具,用于显卡识别的“GPU-Z”。这是TechPowerUp GPU-Z发布的第二个版本为0.0.2,体积仅有334KB


关于CPU和GPU的相关问题
第一个问题: 
GPU的竞争远比CPU的竞争来得激烈。通用PC的CPU就只有英特尔和AMD两家大厂。而在GPU方面领先的是N记和A记两家厂商,但能生产中低端产品的还有英特尔、3S等好几家厂商。它们的产品虽然不如前两家,但在很多应用方面也能满足用户的需要,所以N记和A记只有拼命往前跑才不会死掉。CPU厂商没有采用GPU的先进工艺是因为CPU厂商都有自己投资的生产线,不可能一下把原来的生产线都淘汰了上新的生产线,那样做可能连当初投入的资金都难以收回。而GPU厂商由于种种原因,一般都是自己设计由别人代工的,比如找台积电代工。代工厂商为了能接到业务,只有不停升级自己的生产设备,这样才能生存下来。所以造成以上原因。 
第二个问题 
就如你所说的一样,CPU除了处理游戏的AI,情节等方面的数据外,对于有些图像方面也是由它完成的。当微软每次发布新的DX时,并不是每款GPU都能支持DX新的特性,所以有些图像方面的任务还得由CPU来完成。还有有些特性比如重力特性以前是由CPU来完成,现在有些GPU也能支持了,这些任务就由GPU来完成了。 
第三个问题 
GPU相当于专用于图像处理的CPU,正因为它专,所以它强,在处理图像时它的工作效率远高于CPU,但是CPU是通用的数据处理器,在处理数值计算时是它的强项,它能完成的任务是GPU无法代替的,所以不能用GPU来代替CPU。 
最后补充 
现在AMD收购了A记显卡芯片的设计厂商,AMD看到今后CPU和GPU只有走一条融合的道路才能地竞争中占得先机。CPU和GPU如何配合默契才能最大地提高工作效率是AMD现在考虑的问题,也是英特尔的问题。

 

 (5):主板


主板的简介:
   主板,又叫主机板(mainboard)、系统板(systembourd)和母板(motherboard);它安装在机箱内,是微机最基本的也是最重要的部件之一。 主板一般为矩形电路板,上面安装了组成计算机的主要电路系统,一般有BIOS芯片、I/O控制芯片、键盘和面板控制开关接口、指示灯插接件、扩充插槽、主板及插卡的直流电源供电接插件等元件。主板的另一特点,是采用了开放式结构。主板上大都有6-8个扩展插槽,供PC机外围设备的控制卡(适配器)插接。通过更换这些插卡,可以对微机的相应子系统进行局部升级,使厂家和用户在配置机型方面有更大的灵活性。 总之,主板在整个微机系统中扮演着举足轻重的脚色。可以说,主板的类型和档次决定着整个微机系统的类型和档次,主板的性能影响着整个微机系统的性能。常见的PC机主板的分类方式有以下几种


工作原理:
在电路板上面,是错落有致的电路布线;再上面,则为棱角分明的各个部件:插槽、芯片、电阻、电容等。当主机加电时,电流会在瞬间通过CPU、南北桥芯片、内存插槽、AGP插槽、PCI插槽、IDE接口以及主板边缘的串口、并口、PS/2接口等。随后,主板会根据BIOS(基本输入输出系统)来识别硬件,并进入操作系统发挥出支撑系统平台工作的功能。

 

主板的分类:
   一、按主板上使用的CPU分有: 
   386主板、486主板、奔腾(Pentium,即586)主板、高能奔腾(Pentium Pro,即686)主板。 同一级的CPU往往也还有进一步的划分,如奔腾主板,就有是否支持多能奔腾(P55C,MMX要求主板内建双电压), 是否支持Cyrix 6x86、 AMD 5k86 (都是奔腾级的CPU,要求主板有更好的散热性)等区别。 
   二、按主板上I/O总线的类型分 
   ·ISA(Industry Standard Architecture)工业标准体系结构总线. 
   ·EISA(Extension Industry Standard Architecture)扩展标准体系结构总线. 
   ·MCA(Micro Channel)微通道总线. 此外,为了解决CPU与高速外设之间传输速度慢的"瓶颈"问题,出现了两种局部总线,它们是: 
   ·VESA(Video Electronic Standards Association)视频电子标准协会局部总线,简称VL总线. 
   ·PCI(Peripheral Component Interconnect)外围部件互连局部总线,简称PCI总线. 486级的主板多采用VL总线,而奔腾主板多采用PCI总线。 目前,继PCI之后又开发了更外围的接口总线,它们是:UNB(Universal Serial Bus)通用串行总线。IEEE1394(美国电气及电子工程师协会1394标准)俗称"火线(Fire Ware)"。 
   三、按逻辑控制芯片组分 
   这些芯片组中集成了对CPU、CACHE、I/0和总线的控制586以上的主板对芯片组的作用尤为重视。 Intel公司出品的用于586主板的芯片组有:LX 早期的用于Pentium 60和66MHz CPU的芯片组 
   ·NX 海王星(Neptune),支持Pentium 75 MHz以上的CPU,在Intel 430 FX芯片组推出之前很流行,现在已不多见。 
   ·FX 在430和440两个系列中均有该芯片组,前者用于Pentium,后者用于Pentium Pro。HX Intel 430系列,用于可靠性要求较高的商用微机。VX Intel 430系列,在HX基础上针对普通的多媒体应用作了优化和精简。有被TX取代的趋势。TX Intel 430系列的最新芯片组,专门针对Pentium MMX技术进行了优化。GX、KX Intel 450系列,用于Pentium Pro,GX为服务器设计,KX用于工作站和高性能桌面PC。MX Intel 430系列,专门用于笔记本电脑的奔腾级芯片组,参见《Intel 430 MX芯片组》。 非Intel公司的芯片组有:VT82C5xx系列 VIA公司出品的586芯片组。 
   ·SiS系列 SiS公司出品,在非Intel芯片组中名气较大。 
   ·Opti系列 Opti公司出品,采用的主板商较少。 
   四、按主板结构分 
   ·AT 标准尺寸的主板,IBM PC/A机首先使用而得名,有的486、586主板也采用AT结构布局 
   ·Baby AT 袖珍尺寸的主板,比AT主板小,因而得名。很多原装机的一体化主板首先采用此主板结构 
   ·ATX &127; 改进型的AT主板,对主板上元件布局作了优化,有更好的散热性和集成度,需要配合专门的ATX机箱使用 
   ·一体化(All in one) 主板上集成了声音,显示等多种电路,一般不需

原文链接:http://blog.renren.com/share/221467896/4167048210

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/小蓝xlanll/article/detail/79037
推荐阅读
相关标签
  

闽ICP备14008679号