IT家园's Archiver

79347762 发表于 2007-7-15 02:37

电脑硬件入门知识全解

[color=red][size=3][quote]首先说明帖子的出处,太平洋电脑论坛。原帖出处
[url=http://itbbs.pconline.com.cn/topic.jsp?tid=2699602&topicPage=1][color=#2f5fa1]http://itbbs.pconline.com.cn/topic.jsp?tid=2699602&topicPage=1[/color][/url]

总索引是CPU,内存,显卡,主板,大家不要被篇幅吓了而不看啊,呵呵,里边东西很实在。有空看看吧.一定会有所收获的。[/quote][/size][/color]。
一,CPU篇
顺序为主频,外频,倍频,CPU流水线,缓存,前端总线,核心类型,工艺,CPU技术,超线程,前端总线,零碎的CPU知识~~~

一CPU主频:
这是一个最受新手关注的指标,指的就是CPU内核工作的时钟频率(CPU Clock Speed)。通常所说的某款CPU是多少兆赫兹的,而这个多少兆赫兹就是“CPU的主频”。在学校经常听见一些人问,XXX网吧的CPU2.66G!XXX网吧的才2G,有人用2.66G的赛扬与2.0G-2.66G的P4比,这是无知的表现,和他们争是无意义的:)。主频虽与CPU速度有关系,但确对不是绝对的正比关系,因为CPU的运算速度还要看CPU流水线(流水线下面介绍)的各方面性能指标(缓存、指令集,CPU位数等)。因此主频不代表CPU的整体性能,但提高主频对于提高CPU运算速度却是至关重要的。主频的计算公式为:主频=外频*倍频。
================================================

二:外频:
  外频是CPU乃至整个计算机系统的基准频率,单位是MHz(兆赫兹)。在早期的电脑中,内存与主板之间的同步运行的速度等于外频,在这种方式下,可以理解为CPU外频直接与内存相连通,实现两者间的同步运行状态。对于目前的计算机系统来说,两者完全可以不相同,但是外频的意义仍然存在,计算机系统中大多数的频率都是在外频的基础上,乘以一定的倍数来实现,这个倍数可以是大于1的,也可以是小于1的。
================================================
三:倍频咯:倍频
  CPU的倍频,全称是倍频系数。CPU的核心工作频率与外频之间存在着一个比值关系,这个比值就是倍频系数,简称倍频。理论上倍频是从1.5一直到无限的,但需要注意的是,倍频是以以0.5为一个间隔单位。外频与倍频相乘就是主频,所以其中任何一项提高都可以使CPU的主频上升。  原先并没有倍频概念,CPU的主频和系统总线的速度是一样的,但CPU的速度越来越快,倍频技术也就应允而生。它可使系统总线工作在相对较低的频率上,而CPU速度可以通过倍频来无限提升。那么CPU主频的计算方式变为:主频 === 外频 x 倍频。也就是倍频是指CPU和系统总线之间相差的倍数,当外频不变时,提高倍频,CPU主频也就越高。
================================================

================================================

主频因素说完了,现在让我们来看看别的影响CPU速度的“东西”请允许我称他为东西,说功能现行

================================================

四:流水线:
    这东西学地理的应该懂,高一下册地理书有说,他相当于一个公程的一部分一部分,我自己打个比喻!比如:就拿跑步和走路来说,就分为2级流水线,即左脚,再右脚,再一直循环下去,一级的话就可以说成是双脚一起跳,这样效率当然低,对吧。。。。。。这就是生活的流水线,当你左脚走出去之后,如果发现前面有一堆大便,只好重来了(设一次一定走2步)这就是流水线级别上去之后跟随的错误一出来CPU就要重新计算。。。。。。。。也许我说得不太明白,下面引用别人的话来说,转自网友“毛笔小新”
===================================================

在制造CPU的过程中,除了硬件设计之外,还有逻辑设计,流水线设计就属于逻辑设计范畴,举个例子来讲,比如说一家汽车工厂,在生产汽车的过程中采用了四个大组分别来完成四个生产步骤:1组生产汽车底盘,二组给底盘上装引擎,三组给汽车装外壳及轮胎,四组做喷漆,装玻璃及其他,这就叫做一条四级的流水线.(现在的大型汽车生产厂也的确是按照类似流水线来提高生产效率的). 假设每个步骤需要1小时,那么如果我们让1大组在做完1辆车的底盘后马上开始生产下一辆的底盘,二大组在做完一辆车的引擎后立刻投入下一辆车引擎的组装,以次类推三,四组的工作也如此,这样一来,每一小时就会有一辆奔驰或宝马被生产出来,这就相当于是CPU的指令排序执行. 但如果我们还想提升工厂的生产效率,又该怎么办呢?那么我们就可以将上述的每个大组在分成2个小组,形成一条8级的生产流水线,这样就形成每个小组(注意是"小组")只需要半小时就可以完成自己的工作,那么相应的每半小时就会有一辆汽车走下生产线,这样就提高了效率(这里不太好理解,请大家仔细想想就会明白).  
根据这个道理,CPU的流水线也就不难理解了,只不过是把生产汽车变成了执行程序指令而已,原理上是相通的。
=================================

那么这里可以想到,如果再把流水线加长,是不是效率还可以提高呢? 当人们把这个想法运用到CPU设计中时才发现,由于采用流水线来安排指令,所以非常不灵活,一旦某一级的指令执行出错的话,整条流水线就会停止下来,再一极一级地去找出错误,然后把整条流水线清空,重新载入指令,这样一来,会浪费很多时间,执行效率反而十分低下,为了解决这个问题,科学家们又采用了各种预测技术来提高指令执行的正确率,希望在保持长流水线的同时尽量避免发生清空流水线的悲剧,这就是经常看到的Intel的广告"该处理器采用了先进的分支预测技术....",当你明白了上面我所讲的后,你就知道了吹得那么玄乎,其实也就不过如此.  
还有不得不说的就是:长流水线会让CPU轻易达到很高的运行频率,但在这2G,3G的频率中又有多少是真正有效的工作频率呢? 而且级数越多,所累计出来的延迟越长,因为工作小组在交接工作时是会产生信号延迟的,虽然每个延迟很短,但20甚至30级的流水线所累计出来的延迟是不可忽视的,这样就形成了一个很好笑的局面,流水线技术为处理器提升了频率,但又因为自身的缺陷产生了很大的效率空白,将优势抵消掉,高频率的CPU还会带来高功耗和高发热量,所以说流水线并非越长越好
====================================
近年来Intel的奔四处理器经过了三个阶段的发展,最早的奔四采用的是(威廉)核心,该核心只有13级的流水线,普遍频率未上2G,速度一般,第二代的奔四采用的(northwoog北木)核心,这个核心有20级流水线,由于流水线级数比较合适,所以大副提升了奔四的速度,但又未影响执行效率,当时的奔四2.4A是一款经典产品,将AMD的速龙XP系列一直压制住,Intel因此尝到了甜头,很快就推出了Prescott( 普雷斯科特)核心,这个长达31级流水线的新核心将奔四带入了近3G的速度,这个数字是AMD可望而不可及的,但人们很快发现新奔四的实际运行效率还不如老核心奔四,然尔频率却那么高,发热和功耗那么大,Intel凭借这块新核心"光荣"地获得了"高频低能"的美名,这个时候AMD适时推出了"速龙64"系列,全新的架构,20级的流水线,不高的发热与功耗,最重要的是低频高效,一举击败了新奔四,获得了很高的评价,Intel也吞下了自己造的苦果:被迫停止了4G奔四的开发,失去了不少的市场份额,连总裁贝瑞特也在IDF05上给大众下跪以求原谅.=============================================
CPU缓存:
CPU缓存(Cache Memory)位于CPU与内存之间的临时存储器,它的容量比内存小但交换速度快。在缓存中的数据是内存中的一小部分,但这一小部分是短时间内CPU即将访问的,当CPU调用大量数据时,就可避开内存直接从缓存中调用,从而加快读取速度。由此可见,在CPU中加入缓存是一种高效的解决方案,这样整个内存储器(缓存+内存)就变成了既有缓存的高速度,又有内存的大容量的存储系统了。缓存对CPU的性能影响很大,主要是因为CPU的数据交换顺序和CPU与缓存间的带宽引起的。  
缓存的工作原理是当CPU要读取一个数据时,首先从缓存中查找,如果找到就立即读取并送给CPU处理;如果没有找到,就用相对慢的速度从内存中读取并送给CPU处理,同时把这个数据所在的数据块调入缓存中,可以使得以后对整块数据的读取都从缓存中进行,不必再调用内存。  
正是这样的读取机制使CPU读取缓存的命中率非常高(大多数CPU可达90%左右),也就是说CPU下一次要读取的数据90%都在缓存中,只有大约10%需要从内存读取。这大大节省了CPU直接读取内存的时间,也使CPU读取数据时基本无需等待。总的来说,CPU读取数据的顺序是先缓存后内存。  
最早先的CPU缓存是个整体的,而且容量很低,英特尔公司从Pentium时代开始把缓存进行了分类。当时集成在CPU内核中的缓存已不足以满足CPU的需求,而制造工艺上的限制又不能大幅度提高缓存的容量。因此出现了集成在与CPU同一块电路板上或主板上的缓存,此时就把 CPU内核集成的缓存称为一级缓存,而外部的称为二级缓存。一级缓存中还分数据缓存(Data Cache,D-Cache)和指令缓存(Instruction Cache,I-Cache)。二者分别用来存放数据和执行这些数据的指令,而且两者可以同时被CPU访问,减少了争用Cache所造成的冲突,提高了处理器效能。英特尔公司在推出Pentium 4处理器时,用新增的一种一级追踪缓存替代指令缓存,容量为12KμOps,表示能存储12K条微指令。  
随着CPU制造工艺的发展,二级缓存也能轻易的集成在CPU内核中,容量也在逐年提升。现在再用集成在CPU内部与否来定义一、二级缓存,已不确切。而且随着二级缓存被集成入CPU内核中,以往二级缓存与CPU大差距分频的情况也被改变,此时其以相同于主频的速度工作,可以为CPU提供更高的传输速度。  

二级缓存是CPU性能表现的关键之一,在CPU核心不变化的情况下,增加二级缓存容量能使性能大幅度提高。而同一核心的CPU高低端之分往往也是在二级缓存上有差异,由此可见二级缓存对于CPU的重要性。 CPU在缓存中找到有用的数据被称为命中,当缓存中没有CPU所需的数据时(这时称为未命中),CPU才访问内存。从理论上讲,在一颗拥有二级缓存的CPU中,读取一级缓存的命中率为80%。也就是说CPU一级缓存中找到的有用数据占数据总量的80%,剩下的20%从二级缓存中读取。由于不能准确预测将要执行的数据,读取二级缓存的命中率也在80%左右(从二级缓存读到有用的数据占总数据的16%)。那么还有的数据就不得不从内存调用,但这已经是一个相当小的比例了。目前的较高端的CPU中,还会带有三级缓存,它是为读取二级缓存后未命中的数据设计的—种缓存,在拥有三级缓存的CPU中,只有约5%的数据需要从内存中调用,这进一步提高了CPU的效率。  
为了保证CPU访问时有较高的命中率,缓存中的内容应该按一定的算法替换。一种较常用的算法是“最近最少使用算法”(LRU算法),它是将最近一段时间内最少被访问过的行淘汰出局。因此需要为每行设置一个计数器,LRU算法是把命中行的计数器清零,其他各行计数器加1。当需要替换时淘汰行计数器计数值最大的数据行出局。这是一种高效、科学的算法,其计数器清零过程可以把一些频繁调用后再不需要的数据淘汰出缓存,提高缓存的利用率。  
CPU产品中,一级缓存的容量基本在4KB到64KB之间,二级缓存的容量则分为128KB、256KB、512KB、1MB、2MB等。一级缓存容量各产品之间相差不大,而二级缓存容量则是提高CPU性能的关键。二级缓存容量的提升是由CPU制造工艺所决定的,容量增大必然导致CPU内部晶体管数的增加,要在有限的CPU面积上集成更大的缓存,对制造工艺的要求也就越高

=============================================

前端总线:
前端总线是处理器与主板北桥芯片或内存控制集线器之间的数据通道,其频率高低直接影响CPU访问内存的速度;BIOS可看作是一个记忆电脑相关设定的软件,可以通过它调整相关设定。BIOS存储于板卡上一块芯片中,这块芯片的名字叫COMS RAM。但就像ATA与IDE一样,大多人都将它们混为一谈。  
因为主板直接影响到整个系统的性能、稳定、功能与扩展性,其重要性不言而喻。主板的选购看似简单,其实要注意的东西很多。选购时当留意产品的芯片组、做工用料、功能接口甚至使用简便性,这就要求对主板具备透彻的认识,才能选择到满意的产品。  
总线是将信息以一个或多个源部件传送到一个或多个目的部件的一组传输线。通俗的说,就是多个部件间的公共连线,用于在各个部件之间传输信息。人们常常以MHz表示的速度来描述总线频率。总线的种类很多,前端总线的英文名字是Front Side Bus,通常用FSB表示,是将CPU连接到北桥芯片的总线。计算机的前端总线频率是由CPU和北桥芯片共同决定的。  
CPU就是通过前端总线(FSB)连接到北桥芯片,进而通过北桥芯片和内存、显卡交换数据。前端总线是CPU和外界交换数据的最主要通道,因此前端总线的数据传输能力对计算机整体性能作用很大,如果没足够快的前端总线,再强的CPU也不能明显提高计算机整体速度。数据传输最大带宽取决于所有同时传输的数据的宽度和传输频率,即数据带宽=(总线频率×数据位宽)÷8。目前PC机上所能达到的前端总线频率有266MHz、333MHz、400MHz、533MHz、800MHz几种,前端总线频率越大,代表着CPU与北桥芯片之间的数据传输能力越大,更能充分发挥出CPU的功能。现在的CPU技术发展很快,运算速度提高很快,而足够大的前端总线可以保障有足够的数据供给给CPU,较低的前端总线将无法供给足够的数据给CPU,这样就限制了CPU性能得发挥,成为系统瓶颈。  
CPU和北桥芯片间总线的速度,更实质性的表示了CPU和外界数据传输的速度。而外频的概念是建立在数字脉冲信号震荡速度基础之上的,也就是说,100MHz外频特指数字脉冲信号在每秒钟震荡一万万次,它更多的影响了PIC及其他总线的频率。之所以前端总线与外频这两个概念容易混淆,主要的原因是在以前的很长一段时间里(主要是在Pentium 4出现之前和刚出现Pentium 4时),前端总线频率与外频是相同的,因此往往直接称前端总线为外频,最终造成这样的误会。随着计算机技术的发展,人们发现前端总线频率需要高于外频,因此采用了QDR(Quad Date Rate)技术,或者其他类似的技术实现这个目前。这些技术的原理类似于AGP的2X或者4X,它们使得前端总线的频率成为外频的2倍、4倍甚至更高,从此之后前端总线和外频的区别才开始被人们重视起来。

================================================

再说说CPU的核心类型
Athlon XP的核心类型  
Athlon XP有4种不同的核心类型,但都有共同之处:都采用Socket A接口而且都采用PR标称值标注。
Palomino  
这是最早的Athlon XP的核心,采用0.18um制造工艺,核心电压为1.75V左右,二级缓存为256KB,封装方式采用OPGA,前端总线频率为266MHz。  
Thoroughbred  
这是第一种采用0.13um制造工艺的Athlon XP核心,又分为Thoroughbred-A和Thoroughbred-B两种版本,核心电压1.65V-1.75V左右,二级缓存为256KB,封装方式采用OPGA,前端总线频率为266MHz和333MHz。  
Thorton  
采用0.13um制造工艺,核心电压1.65V左右,二级缓存为256KB,封装方式采用OPGA,前端总线频率为333MHz。可以看作是屏蔽了一半二级缓存的Barton。  
Barton  
采用0.13um制造工艺,核心电压1.65V左右,二级缓存为512KB,封装方式采用OPGA,前端总线频率为333MHz和400MHz。  
新Duron的核心类型  
AppleBred  
采用0.13um制造工艺,核心电压1.5V左右,二级缓存为64KB,封装方式采用OPGA,前端总线频率为266MHz。没有采用PR标称值标注而以实际频率标注,有1.4GHz、1.6GHz和1.8GHz三种。  
Athlon 64系列CPU的核心类型  
Clawhammer  
采用0.13um制造工艺,核心电压1.5V左右,二级缓存为1MB,封装方式采用mPGA,采用Hyper Transport总线,内置1个128bit的内存控制器。采用Socket 754、Socket 940和Socket 939接口。  
Newcastle  
其与Clawhammer的最主要区别就是二级缓存降为512KB(这也是AMD为了市场需要和加快推广64位CPU而采取的相对低价政策的结果),其它性能基本相同。  
AMD双核心处理器  
AMD推出的双核心处理器  
分别是双核心的Opteron系列和全新的Athlon 64 X2系列处理器。其中Athlon 64 X2是用以抗衡Pentium D和Pentium Extreme Edition的桌面双核心处理器系列。  
AMD推出的Athlon 64 X2是由两个Athlon 64处理器上采用的Venice核心组合而成,每个核心拥有独立的512KB(1MB) L2缓存及执行单元。除了多出一个核芯之外,从架构上相对于目前Athlon 64在架构上并没有任何重大的改变。  
双核心Athlon 64 X2的大部分规格、功能与我们熟悉的Athlon 64架构没有任何区别,也就是说新推出的Athlon 64 X2双核心处理器仍然支持1GHz规格的HyperTransport总线,并且内建了支持双通道设置的DDR内存控制器。  
与Intel双核心处理器不同的是,Athlon 64 X2的两个内核并不需要经过MCH进行相互之间的协调。AMD在Athlon 64 X2双核心处理器的内部提供了一个称为System Request Queue(系统请求队列)的技术,在工作的时候每一个核心都将其请求放在SRQ中,当获得资源之后请求将会被送往相应的执行核心,也就是说所有的处理过程都在CPU核心范围之内完成,并不需要借助外部设备。  
对于双核心架构,AMD的做法是将两个核心整合在同一片硅晶内核之中,而Intel的双核心处理方式则更像是简单的将两个核心做到一起而已。与Intel的双核心架构相比,AMD双核心处理器系统不会在两个核心之间存在传输瓶颈的问题。因此从这个方面来说,Athlon 64 X2的架构要明显优于Pentium D架构。  
虽然与Intel相比,AMD并不用担心Prescott核心这样的功耗和发热大户,但是同样需要为双核心处理器考虑降低功耗的方式。为此AMD并没有采用降低主频的办法,而是在其使用90nm工艺生产的Athlon 64 X2处理器中采用了所谓的Dual Stress Liner应变硅技术,与SOI技术配合使用,能够生产出性能更高、耗电更低的晶体管。  
AMD推出的Athlon 64 X2处理器给用户带来最实惠的好处就是,不需要更换平台就能使用新推出的双核心处理器,只要对老主板升级一下BIOS就可以了,这与Intel双核心处理器必须更换新平台才能支持的做法相比,升级双核心系统会节省不少费用。  
英特尔CPU核心  
Tualatin  
这也就是大名鼎鼎的“图拉丁”核心,是Intel在Socket 370架构上的最后一种CPU核心,采用0.13um制造工艺,封装方式采用FC-PGA2和PPGA,核心电压也降低到了1.5V左右,主频范围从1GHz到1.4GHz,外频分别为100MHz(赛扬)和133MHz(Pentium III),二级缓存分别为512KB(Pentium III-S)和256KB(Pentium III和赛扬),这是最强的Socket 370核心,其性能甚至超过了早期低频的Pentium 4系列CPU。  
Willamette 这是早期的Pentium 4和P4赛扬采用的核心,最初采用Socket 423接口,后来改用Socket 478接口(赛扬只有1.7GHz和1.8GHz两种,都是Socket 478接口),采用0.18um制造工艺,前端总线频率为400MHz, 主频范围从1.3GHz到2.0GHz(Socket 423)和1.6GHz到2.0GHz(Socket 478),二级缓存分别为256KB(Pentium 4)和128KB(赛扬),注意,另外还有些型号的Socket 423接口的Pentium 4居然没有二级缓存!核心电压1.75V左右,封装方式采用Socket 423的PPGA INT2,PPGA INT3,OOI 423-pin,PPGA FC-PGA2和Socket 478的PPGA FC-PGA2以及赛扬采用的PPGA等等。Willamette核心制造工艺落后,发热量大,性能低下,已经被淘汰掉,而被Northwood核心所取代。  
Northwood  
这是目前主流的Pentium 4和赛扬所采用的核心,其与Willamette核心最大的改进是采用了0.13um制造工艺,并都采用Socket 478接口,核心电压1.5V左右,二级缓存分别为128KB(赛扬)和512KB(Pentium 4),前端总线频率分别为400/533/800MHz(赛扬都只有400MHz),主频范围分别为2.0GHz到2.8GHz(赛扬),1.6GHz到2.6GHz(400MHz FSB Pentium 4),2.26GHz到3.06GHz(533MHz FSB Pentium 4)和2.4GHz到3.4GHz(800MHz FSB Pentium 4),并且3.06GHz Pentium 4和所有的800MHz Pentium 4都支持超线程技术(Hyper-Threading Technology),封装方式采用PPGA FC-PGA2和PPGA。按照Intel的规划,Northwood核心会很快被Prescott核心所取代。  
Prescott 这是Intel最新的CPU核心,目前Pentium 4 XXX(如Pentium 4 530)和Celeron D采用该核心,还有少量主频在2.8GHz以上的CPU采用该核心。其与Northwood最大的区别是采用了0.09um制造工艺和更多的流水线结构,初期采用Socket 478接口,目前生产的全部转到LGA 775接口,核心电压1.25-1.525V,前端总线频率为533MHz(不支持超线程技术)和800MHz(支持超线程技术),最高有1066MHz的Pentium 4至尊版。其与Northwood相比,其L1 数据缓存从8KB增加到16KB,而L2缓存则从512KB增加到1MB或2MB,封装方式采用PPGA,Prescott核心已经取代Northwood核心成为市场的主流产品。  
Intel双核心处理器  
目前Intel推出的双核心处理器有Pentium D和Pentium Extreme Edition,同时推出945/955芯片组来支持新推出的双核心处理器,采用90nm工艺生产的这两款新推出的双核心处理器使用是没有针脚的LGA 775接口,但处理器底部的贴片电容数目有所增加,排列方式也有所不同。  
桌面平台的核心代号Smithfield的处理器,正式命名为Pentium D处理器,除了摆脱阿拉伯数字改用英文字母来表示这次双核心处理器的世代交替外,D的字母也更容易让人联想起Dual-Core双核心的涵义。  
ntel的双核心构架更像是一个双CPU平台,Pentium D处理器继续沿用Prescott架构及90nm生产技术生产。Pentium D内核实际上由于两个独立的2独立的Prescott核心组成,每个核心拥有独立的1MB L2缓存及执行单元,两个核心加起来一共拥有2MB,但由于处理器中的两个核心都拥有独立的缓存,因此必须保正每个二级缓存当中的信息完全一致,否则就会出现运算错误。  
为了解决这一问题,Intel将两个核心之间的协调工作交给了外部的MCH(北桥)芯片,虽然缓存之间的数据传输与存储并不巨大,但由于需要通过外部的MCH芯片进行协调处理,毫无疑问的会对整个的处理速度带来一定的延迟,从而影响到处理器整体性能的发挥。  
由于采用Prescott内核,因此Pentium D也支持EM64T技术、XD bit安全技术。值得一提的是,Pentium D处理器将不支持Hyper-Threading技术。原因很明显:在多个物理处理器及多个逻辑处理器之间正确分配数据流、平衡运算任务并非易事。比如,如果应用程序需要两个运算线程,很明显每个线程对应一个物理内核,但如果有3个运算线程呢?因此为了减少双核心Pentium D架构复杂性,英特尔决定在针对主流市场的Pentium D中取消对Hyper-Threading技术的支持。  
同出自Intel之手,而且Pentium D和Pentium Extreme Edition两款双核心处理器名字上的差别也预示着这两款处理器在规格上也不尽相同。其中它们之间最大的不同就是对于超线程(Hyper-Threading)技术的支持。Pentium D不能支持超线程技术,而Pentium Extreme Edition则没有这方面的限制。在打开超线程技术的情况下,双核心Pentium Extreme Edition处理器能够模拟出另外两个逻辑处理器,可以被系统认成四核心系统。

===================================================

CPU工艺:
指在硅材料上生产CPU时内部各元器材的连接线宽度,一般用微米表示。微米值越小制作工艺越先进,CPU可以达到的频率越高,集成的晶体管就可以更多。目前Intel的P4和AMD的XP都已经达到了0.65微米的制造工艺。  

从上面我们了解了CPU的逻辑结构以及一些基本技术参数,本文将继续全面的了解影响CPU性能的有关技术参数。  
===============================================================

下面又说说CPU的技术吧
CPU扩展指令集:
CPU依靠指令来计算和控制系统,每款CPU在设计时就规定了一系列与其硬件电路相配合的指令系统。指令的强弱也是CPU的重要指标,指令集是提高微处理器效率的最有效工具之一。从现阶段的主流体系结构讲,指令集可分为复杂指令集和精简指令集两部分,而从具体运用看,如Intel的MMX(Multi Media Extended)、SSE、 SSE2(Streaming-Single instruction multiple data-Extensions 2)、SEE3和AMD的3DNow!等都是CPU的扩展指令集,分别增强了CPU的多媒体、图形图象和Internet等的处理能力。我们通常会把CPU的扩展指令集称为CPU的指令集。SSE3指令集也是目前规模最小的指令集,此前MMX包含有57条命令,SSE包含有50条命令,SSE2包含有144条命令,SSE3包含有13条命令。目前SSE3也是最先进的指令集,英特尔Prescott处理器已经支持SSE3指令集,AMD会在未来双核心处理器当中加入对SSE3指令集的支持,全美达的处理器也将支持这一指令集。
===================================================

指令集:
(1) X86指令集要知道什么是指令集还要从当今的X86架构的CPU说起。X86指令集是Intel为其第一块16位CPU(i8086)专门开发的,IBM1981年推出的世界第一台PC机中的CPU—i8088(i8086简化版)使用的也是X86指令,同时电脑中为提高浮点数据处理能力而增加的X87芯片系列数学协处理器则另外使用X87指令,以后就将X86指令集和X87指令集统称为X86指令集。虽然随着CPU技术的不断发展,Intel陆续研制出更新型的i80386、i80486直到今天,但为了保证电脑能继续运行以往开发的各类应用程序以保护和继承丰富的软件资源,所以Intel公司所生产的所有CPU仍然继续使用X86指令集,所以它的CPU仍属于X86系列。由于Intel X86系列及其兼容CPU都使用X86指令集,所以就形成了今天庞大的X86系列及兼容CPU阵容。  
(2) RISC指令集RISC指令集是以后高性能CPU的发展方向。它与传统的CISC(复杂指令集)相对。相比而言,RISC的指令格式统一,种类比较少,寻址方式也比复杂指令集少。当然处理速度就提高很多了。而且RISC指令集还兼容原来的X86指令集。  
==========================================
字节:(8位,32位,64位电脑的由来)
电脑技术中对CPU在单位时间内(同一时间)能一次处理的二进制数的位数叫字长。所以能处理字长为8位数据的CPU通常就叫8位的CPU。同理32位的CPU就能在单位时间内处理字长为32位的二进制数据。当前的CPU都是32位的CPU,但是字长的最佳是CPU发展的一个趋势。AMD推出64位的CPU-Atlon64。未来必然是64位CPU的天下。 ======================================================

流水线与超流水线:
虽然流水线之 前说过了,但是在这再说说超流水线
流水线(pipeline)是Intel首次在486芯片中开始使用的。流水线的工作方式就象工业生产上的装配流水线。在CPU中由5~  
6个不同功能的电路单元组成一条指令处理流水线,然后将一条X86指令分成5~6步后再由这些电路单元分别执行,这样就能实现在一个CPU时钟周期完成一条指令,因此提高CPU的运算速度。超流水线(superpiplined)是指某型CPU内部的流水线超过通常的5~6步以上,例如Pentium pro的流水线就长达14步。将流水线设计的步(级)其完成一条指令的速度越快,因此才能适应工作主频更高的CPU。但是流水线过长也带来了一定副作用,很可能会出现主频较高的CPU实际运算速度较低的现象,Intel的奔腾4就出现了这种情况,虽然它的主频可以高达1.4G以上,但其运算性能却远远比不上AMD 1.2G的速龙甚至奔腾III。 ======================================================

封装形式:
CPU封装是采用特定的材料将CPU芯片或CPU模块固化在其中以防损坏的保护措施,一般必须在封装后CPU才能交付用户使用。CPU的封装方式取决于CPU安装形式和器件集成设计,从大的分类来看通常采用Socket插座进行安装的CPU使用PGA(栅格阵列)方式封装,而采用Slot x槽安装的CPU则全部采用SEC(单边接插盒)的形式封装。现在还有PLGA(Plastic Land Grid Array)、OLGA(Organic Land Grid Array)等封装技术。由于市场竞争日益激烈,目前CPU封装技术的发展方向以节约成本为主。
======================================================

HT(超线程)
说说INTEL大展的HT技术吧,我们班每个同学都懂得HT,但不知道HT是什么东西:)
Intel正式发布了“Hyper-Threading Technology(超线程技术)”这项技术率先在XERON处理器上得到应用。通过使用该技术,Intel将提供世界上首枚集成了双逻辑处理器单元的物理处理器(其实就是在一个处理器上整合了两个逻辑处理器单元),据说能够提高40%的处理器性能,类似的技术似乎也出现在AMDK8-Hammer处理器上。  
何为Hyper-Threading:  
??当今的处理器发展普遍向着提高处理器指令平铺速率的方向迈进,但由于所使用的处理器资源会有冲突,因此性能提升的效果并不理想。而通过Hyper-Threading技术,通过在一枚处理器上整合两个逻辑处理器(注:是处理器而不是运算单元)单元,使得具有这种技术的新型CPU具有能同时执行多个线程的能力,而这是现有其它微处理器都不能做到的。  
简单的说,Hyper Threading是一种同步多执行绪(SMT,simultaneous Multi-threading)技术,它的原理很简单,就是把一颗CPU当成两颗来用,将一颗具Hyper-Threading功能的“实体”处理器变成两个“逻辑”处理器而逻辑处理器对于操作系统来说跟实体处理器并没什么两样,因此操作系统会把工作线程分派给这“两颗”处理器去执行,让多种应用程序或单一应用程序的多个执行绪(thread),能够同时在同一颗处理器上执行;不过两个逻辑处理器是共享这颗CPU的所有执行资源。  
Hyper-Threading技术简介  
??Hyper-Threading做法是复制一颗处理器的架构指挥中心(architectural state)变成两个,使得Windows操作系统认为是在与两颗处理器沟通,但这两个架构指挥中心共享该处理器的工作资源(execution resources)。架构指挥中心追踪每个程序或执行绪的执行状况;工作资源指的则是“处理器用来进行加、乘、加载等工作的单元(execution unit)”。如此一来,操作系统把工作线程安排好以后,就分派给这两个逻辑上的处理器执行,而这颗CPU的每个执行单元等于在同样的时间内要服务两个“指令处理中心”,当然它的效率就高多了,操作系统就把一颗实体的处理器认定为两个逻辑处理器作工作指派,当然整体工作效能就比没有具备Hyper-Threading 的处理器高出许多,性价比自然高出许多。  
超线程技术实现的必要条件  
除了硬件支持之外,我们必须注意到,超线程技术的实现还需要软件的支持才能够发挥出应有的威力。首先是操作系统的支持,我们必须使用支持双处理器的操作系统,如Win2000等才能完全发挥出超线程技术的性能。至于软件方面,目前很多专业的应用程序对于双处理器都提供了支持,如著名的图形处理软件3Dmax、Maya等。  
此外,很多用户可能会有疑问,既然超线程技术以前专门针对服务器处理器,那么现有的众多软件,能否完全兼容支持超线程技术的处理器,是否还需要什么修改才能运行呢?其实这个我们大可不必担心,现有的IA32软件不需进行任何的修改,就可以在支持超线程的P4处理器上很好的运行了。  
超线程=效能提升?  
一般很多人都会认为,采用超线程技术,就能使得系统效能大幅提升,但是事实真是如此么?不要忘了我们前面说到的超线程技术实现的必要条件,这可是超线程技术发挥应有效能的前提条件。除了操作系统支持之外,还必须要软件的支持。从这点我们就可以看出,就目前的软件现状来说,支持双处理器技术的软件毕竟还在少数。对于大多数软件来说,目前由于设计的原理不同,还并不能从超线程技术上得到直接的好处。因为超线程技术是在线程级别上并行处理命令,按线程动态分配处理器等资源。该技术的核心理念是“并行度(Parallelism)”,也就是提高命令执行的并行度、提高每个时钟的效率。这就需要软件在设计上线程化,提高并行处理的能力。而目前PC上的应用程序几乎没有为此作出相应的优化,采用超线程技术并没不能获得效能的大幅提升。  
上面说的只是目前软件支持的现状,操作系统在这个方面则没有太大的问题,毕竟Windows的某些版本、Linux都是支持多处理器的操作系统。并且随着Intel支持超线程技术的处理器面世之后,凭借Intel处理器的号召力,必然会引起目前应用程序设计上的改变,必然会有更多的支持并行线程处理的软件面世,届时,当然是支持超线程处理器大显身手的时候了。那时候,普通用户才能够从超线程技术中得到最直接的好处。  
但是我们还是需要看到,随着目前操作系统对于双处理器技术的广泛支持,例如Windows2000、Windows XP等操作系统都支持双处理器,在这些操作系统上使用支持超线程技术的处理器,对于系统的整体性能还是有一定的提高的。。  
我自己来说一说:简单地说:就是一个CPU模拟成2个一起运算,假如你的大脑有HT技术,上课就可以边讲话,边听课啦!!======================================================

HT还有一个意思是HyperTransport ,这是AMD的饿。。。。。不是前面的因特尔的记得我们班有一个人说,哇,XXX处理器技术超线程前端总线技术,听了我差点吐血!!!A和I几时合平共处了????HyperTransport最初是AMD在1999年提出的一种总线技术,随着AMD64位平台的发布和推广,HyperTransport应用越来越广泛,也越来越被人们所熟知。  
HyperTransport是一种为主板上的集成电路互连而设计的端到端总线技术,它可以在内存控制器、磁盘控制器以及PCI总线控制器之间提供更高的数据传输带宽。HyperTransport采用类似DDR的工作方式,在400MHz工作频率下,相当于800MHz的传输频率。此外HyperTransport是在同一个总线中模拟出两个独立数据链进行点对点数据双向传输,因此理论上最大传输速率可以视为翻倍,具有4、8、16及32位频宽的高速序列连接功能。在400MHz下,双向4bit模式的总线带宽为0.8GB/sec,双向8bit模式的总线带宽为1.6GB/sec;800MHz下,双向8bit模式的总线带宽为3.2GB/sec,双向16bit模式的总线带宽为6.4GB/sec,双向32bit模式的总线带宽为12.8GB/sec。以400MHz下,双向4bit模式为例,带宽计算方法为400MHz×2×2×4bit÷8=0.8GB/sec。  
HyperTransport还有一大特色,就是当数据位宽并非32bit时,可以分批传输数据来达到与32bit相同的效果。例如16bit的数据就可以分两批传输,8bit的数据就可以分四批传输,这种数据分包传输的方法,给了HyperTransport在应用上更大的弹性空间。  
2004年2月,HyperTransport技术联盟(Hyper Transport Technology Consortium)又正式发布了HyperTransport 2.0规格,由于采用了Dual-data技术,使频率成功提升到了1.0GHz、1.2GHz和1.4GHz,数据传输带宽由每通道1.6Gb/sec提升到了2.0GB/sec、2.4Gb/sec和2.8GB/sec,最大带宽由原来的12.8Gb/sec提升到了22.4GB/sec。  
当HyperTransport应用于内存控制器时,其实也就类似于传统的前端总线(FSB,Front Side Bus),因此对于将HyperTransport技术用于内存控制器的CPU来说,其HyperTransport的频率也就相当于前端总线的频率。
=============================================

64位技术:
这个不想说太多,懂得编程的朋友应该知道
64位代表着更广的寻址空间,有AMD的X86-64,还有I的EMT-64技术,都是64位的CPU
我断定!未来的64位CPU是主流!
================================================

接口类型:socket就是接口的意思 比如AMD的就有462,754,939针脚的,462针脚就是socket A接口 当然现在很少使用462针脚了,主流的闪龙就是754针脚,939就属于高端CPU使用的针脚====================================

现在还有AMD准备要出的AM2接口,INTEL的LGA接口等,按电脑报的来说,可以理解为,CPU越强大了就要用更多脚来支持
=======================================  
核心电压:
这个没有什么好说的,就是CPU的工作电压(Supply Voltage),即CPU正常工作所需的电压。任何电器在工作的时候都需要电,自然也有对应额定电压,CPU也不例外。

=========================================================
下面说说3DNOW技术:
由AMD公司提出的3DNow!指令集应该说出现在SSE指令集之前,并被AMD广泛应用于其K6-2 、K6-3以及Athlon(K7)处理器上。3DNow!指令集技术其实就是21条机器码的扩展指令集。  
与Intel公司的MMX技术侧重于整数运算有所不同,3DNow!指令集主要针对三维建模、坐标变换 和效果渲染等三维应用场合,在软件的配合下,可以大幅度提高3D处理性能。后来在Athlon上开发了Enhanced 3DNow!。这些AMD标准的SIMD指令和Intel的SSE具有相同效能。因为受到Intel在商业上以及Pentium III成功的影响,软件在支持SSE上比起3DNow!更为普遍。Enhanced 3DNow!AMD公司继续增加至52个指令,包含了一些SSE码,因而在针对SSE做最佳化的软件中能获得更好的效能。
===================================================
再说说MMX
MMX技术:是"多媒体扩展指令集"的缩写。MMX是Intel公司为增强 Pentium CPU 在音像、图形和通信应用方面而采取的新技术。这一技术为CPU增加了全新的57条MMX指令,还将CPU芯片内的L1缓存由原来的16KB增加到32KB(16K指命+16K数据),因此MMX CPU比普通CPU在运行含有MMX指令的程序时,处理多媒体的能力上提高了60%左右。即使不使用MMX指令的程序,也能获得 15% 左右的性能提升。MMX已经成为选择CPU的一个基本标准,目前CPU基本都具备MMX技术,除Pentium P55C(Pentium MMX)和Pentium ⅡCPU还有K6、K6 3D(K6-2)、MII,6X86MX,IDT C6等。不支持MMX指令的CPU可以不用考虑了。  

MMX 是MultiMedia eXtensions(多媒体扩展)的缩写,是第六代CPU芯片的重要特点。MMX技术是在CPU中加入了特地为视频信号(Video Signal),音频信号(Audio Signal)以及图像处理(Graphical Manipulation)而设计的57条指令,因此,MMX CPU极大地提高了电脑的多媒体(如立体声、视频、三维动画等)处理功能。
========================================================

再来说说SSE:
SSE是Streaming SIMD Extension的缩写,也叫KNI指令集。它是被嵌套在Intel Pentium III处理器中的第二套多媒体专用指令集。与MMX指令集不同的是SSE的主要作用是加速CPU的3D运算能力。它总计包括70条指令,50条SIMD浮点指令,主要用于3D处理。12条新MMX指令,8条系统内存数据流传输优化指令。 流式SIMD扩展,是Intel对MMX的一个改进。SSE包括了70条用于图形图象和声音成立的指令,除了比MMX增加了23条指令外,SSE指令也允许浮点运算,使用一个分开的单元,而不是MMX使用的标准浮点单元。  
================================================
再说说SSE寄存器:
SSE寄存器是专用寄存器,并非通用寄存器,因为它是专门针对多媒体数据处理指令而设计的.标准的32-bit x86架构包括8个通用寄存器(GPR),AMD在X86-64中又增加了8组(R8-R9),将寄存器的数目提高到了16组。X86-64寄存器默认位64-bit。还增加了8组128-bit XMM寄存器(也叫SSE寄存器,XMM8-XMM15)。============================================================================================

79347762 发表于 2007-7-15 02:38

内存篇
内存对整体运行速度是很有影响的,2.4G的P4如果只有128M的内存还比不上1.7G的384M赛扬,可见内存影响很大,也许256的赛扬也可以比得上2.4G的P4,可能,后者没试过。。。下面具体说说内存方面。。。  
还是写一下顺序吧:动态随机存取内存 DRAM,随机存取内存RAM,内存双通道,延迟描述(CL),SPD ,DDR1(2,3)      




======================================================

动态随机存取内存 DRAM:
DRAM 是Dynamic Random Access Memory 的缩写,通常是计算机内的主存储器,它是而用电容来做储存动作,但因电容本身有漏电问题,所以内存内的资料须持续地存取不然资料会不见

======================================================

随机存取内存RAM:
随机存取内存RAM ( Random Access Memory):RAM是可被读取和写入的内存,我们在写资料到RAM内存时也同时可从RAM读取资料,这和ROM内存有所不同。但是RAM必须由稳定流畅的电力来保持它本身的稳定性,所以一旦把电源关闭则原先在RAM里头的资料将随之消失。
============================================================

内存双通道:
双通道内存技术其实是一种内存控制和管理技术,它依赖于芯片组的内存控制器发生作用,在理论上能够使两条同等规格内存所提供的带宽增长一倍。它并不是什么新技术,早就被应用于服务器和工作站系统中了,只是为了解决台式机日益窘迫的内存带宽瓶颈问题它才走到了台式机主板技术的前台。在几年前,英特尔公司曾经推出了支持双通道内存传输技术的i820芯片组,它与RDRAM内存构成了一对黄金搭档,所发挥出来的卓绝性能使其一时成为市场的最大亮点,但生产成本过高的缺陷却造成了叫好不叫座的情况,最后被市场所淘汰。由于英特尔已经放弃了对RDRAM的支持,所以目前主流芯片组的双通道内存技术均是指双通道DDR内存技术,主流双通道内存平台英特尔方面是英特尔 865、875系列,而AMD方面则是NVIDIA Nforce2系列。  

双通道内存技术是解决CPU总线带宽与内存带宽的矛盾的低价、高性能的方案。现在CPU的FSB(前端总线频率)越来越高,英特尔 Pentium 4比AMD Athlon XP对内存带宽具有高得多的需求。英特尔 Pentium 4处理器与北桥芯片的数据传输采用QDR(Quad Data Rate,四次数据传输)技术,其FSB是外频的4倍。英特尔 Pentium 4的FSB分别是400、533、800MHz,总线带宽分别是3.2GB/sec,4.2GB/sec和6.4GB/sec,而DDR 266/DDR 333/DDR 400所能提供的内存带宽分别是2.1GB/sec,2.7GB/sec和3.2GB/sec。在单通道内存模式下,DDR内存无法提供CPU所需要的数据带宽从而成为系统的性能瓶颈。而在双通道内存模式下,双通道DDR 266、DDR 333、DDR 400所能提供的内存带宽分别是4.2GB/sec,5.4GB/sec和6.4GB/sec,在这里可以看到,双通道DDR 400内存刚好可以满足800MHz FSB Pentium 4处理器的带宽需求。而对AMD Athlon XP平台而言,其处理器与北桥芯片的数据传输技术采用DDR(Double Data Rate,双倍数据传输)技术,FSB是外频的2倍,其对内存带宽的需求远远低于英特尔 Pentium 4平台,其FSB分别为266、333、400MHz,总线带宽分别是2.1GB/sec,2.7GB/sec和3.2GB/sec,使用单通道的DDR 266、DDR 333、DDR 400就能满足其带宽需求,所以在AMD K7平台上使用双通道DDR内存技术,可说是收效不多,性能提高并不如英特尔平台那样明显,对性能影响最明显的还是采用集成显示芯片的整合型主板。  
NVIDIA推出的nForce芯片组是第一个把DDR内存接口扩展为128-bit的芯片组,随后英特尔在它的E7500服务器主板芯片组上也使用了这种双通道DDR内存技术,SiS和VIA也纷纷响应,积极研发这项可使DDR内存带宽成倍增长的技术。但是,由于种种原因,要实现这种双通道DDR(128 bit的并行内存接口)传输对于众多芯片组厂商来说绝非易事。DDR SDRAM内存和RDRAM内存完全不同,后者有着高延时的特性并且为串行传输方式,这些特性决定了设计一款支持双通道RDRAM内存芯片组的难度和成本都不算太高。但DDR SDRAM内存却有着自身局限性,它本身是低延时特性的,采用的是并行传输模式,还有最重要的一点:当DDR SDRAM工作频率高于400MHz时,其信号波形往往会出现失真问题,这些都为设计一款支持双通道DDR内存系统的芯片组带来不小的难度,芯片组的制造成本也会相应地提高,这些因素都制约着这项内存控制技术的发展。  

普通的单通道内存系统具有一个64位的内存控制器,而双通道内存系统则有2个64位的内存控制器,在双通道模式下具有128bit的内存位宽,从而在理论上把内存带宽提高一倍。虽然双64位内存体系所提供的带宽等同于一个128位内存体系所提供的带宽,但是二者所达到效果却是不同的。双通道体系包含了两个独立的、具备互补性的智能内存控制器,理论上来说,两个内存控制器都能够在彼此间零延迟的情况下同时运作。比如说两个内存控制器,一个为A、另一个为B。当控制器B准备进行下一次存取内存的时候,控制器A就在读/写主内存,反之亦然。两个内存控制器的这种互补“天性”可以让等待时间缩减50%。双通道DDR的两个内存控制器在功能上是完全一样的,并且两个控制器的时序参数都是可以单独编程设定的。这样的灵活性可以让用户使用二条不同构造、容量、速度的DIMM内存条,此时双通道DDR简单地调整到最低的内存标准来实现128bit带宽,允许不同密度/等待时间特性的DIMM内存条可以可靠地共同运作。  

支持双通道DDR内存技术的台式机芯片组,英特尔平台方面有英特尔的865P、865G、865GV、865PE、875P以及之后的915、925系列;VIA的PT880,ATI的Radeon 9100 IGP系列,SIS的SIIS 655,SIS 655FX和SIS 655TX;AMD平台方面则有VIA的KT880,NVIDIA的nForce2 Ultra 400,nForce2 IGP,nForce2 SPP及其以后的芯片。  

AMD的64位CPU,由于集成了内存控制器,因此是否支持内存双通道看CPU就可以。目前AMD的台式机CPU,只有939接口的才支持内存双通道,754接口的不支持内存双通道。除了AMD的64位CPU,其他计算机是否可以支持内存双通道主要取决于主板芯片组,支持双通道的芯片组上边有描述,也可以查看主板芯片组资料。此外有些芯片组在理论上支持不同容量的内存条实现双通道,不过实际还是建议尽量使用参数一致的两条内存条。  
内存双通道一般要求按主板上内存插槽的颜色成对使用,此外有些主板还要在BIOS做一下设置,一般主板说明书会有说明。当系统已经实现双通道后,有些主板在开机自检时会有提示,可以仔细看看。由于自检速度比较快,所以可能看不到。因此可以用一些软件查看,很多软件都可以检查,比如cpu-z,比较小巧。在“memory”这一项中有“channels”项目,如果这里显示“Dual”这样的字,就表示已经实现了双通道。两条256M的内存构成双通道效果会比一条512M的内存效果好,因为一条内存无法构成双通道。  
===================================================
延迟描述(CL):
CL反应时间是衡定内存的另一个标志。CL是CAS Latency的缩写,指的是内存存取数据所需的延迟时间,简单的说,就是内存接到CPU的指令后的反应速度。一般的参数值是2和3两种。数字越小,代表反应所需的时间越短。在早期的PC133内存标准中,这个数值规定为3,而在Intel重新制订的新规范中,强制要求CL的反应时间必须为2,这样在一定程度上,对于内存厂商的芯片及PCB的组装工艺要求相对较高,同时也保证了更优秀的品质。因此在选购品牌内存时,这是一个不可不察的因素。
还有另的诠释:
内存延迟基本上可以解释成是系统进入数据进行存取操作就绪状态前等待内存响应的时间。  

打个形象的比喻,就像你在餐馆里用餐的过程一样。你首先要点菜,然后就等待服务员给你上菜。同样的道理,内存延迟时间设置的越短,电脑从内存中读取数据的速度也就越快,进而电脑其他的性能也就越高。  

这条规则双双适用于基于英特尔以及AMD处理器的系统中。由于没有比2-2-2-5更低的延迟,因此国际内存标准组织认为以现在的动态内存技术还无法实现0或者1的延迟。  

通常情况下,我们用4个连着的阿拉伯数字来表示一个内存延迟,例如2-2-2-5。其中,第一个数字最为重要,它表示的是CAS Latency,也就是内存存取数据所需的延迟时间。第二个数字表示的是RAS-CAS延迟,接下来的两个数字分别表示的是RAS预充电时间和Act-to-Precharge延迟。而第四个数字一般而言是它们中间最大的一个。  

如图所示,我们可以看到Crucial DDR333内存的延迟图表。通过这张图表,我们可以看出延迟数字所表示的含义。以最上面的CL===2的内存为例,图中分别有CAS2,CAS2.5以及CAS3三种延时。注意垂直的虚线,它表示的是时钟信号的上升沿或下降沿。由于这是一款DDR内存,因此,一个时钟周期内含有两个点。  

CAS latency是注册读取命令到第一个输出数据之间的延迟。CAS latency的单位是时钟周期。  

一块延迟设置为2-2-2-5的DDR内存,其性能要高出延迟为3-4-4-8的DIMM。这是因为前者接收到一条指令,找回数据以及送回数据的延迟要比后者要短。  

体现在BIOS设置里,还有很多相关的选项:  


在BIOS主界面的 Advanced Chipset Features 选项子界面中大家可以看到:  
SDRAM Frequency  
Configure SDRAM Timing by SPD  
SDRAM CAS# Latency 简称CL  
SDRAM RAS# Precharge 简称TRP  
SDRAM RAS# to CAS# Delay 简称TRCD  
SDRAM Precharge Delay 简称TRAS  
SDRAM Burst Length 简称BL  
具体在选项的描述上可能有差异,更多详细请参考附录1。  

其实内存延迟的调节一定意义上也是超频的一种手段,但是它是在最低危险程度下根据内存的自身条件做出的调节,也就是说,在内存的反应程度上调节内存的工作的状态,叫它少休息,多工作,所以长期调整内存延迟对内存本身还有一定伤害的。事先声明,并非延迟越小内存性能越高,因为CL-TRP-TRCD-TRAS这四个数值是配合使用的,相互影响的程度非常大,并且也不是数值最大时其性能也最差,那么更加合理的配比参数成为了我们至关重要的一个环节。  
=======================================
ECC:
内存延迟基本上可以解释成是系统进入数据进行存取操作就绪状态前等待内存响应的时间。  

打个形象的比喻,就像你在餐馆里用餐的过程一样。你首先要点菜,然后就等待服务员给你上菜。同样的道理,内存延迟时间设置的越短,电脑从内存中读取数据的速度也就越快,进而电脑其他的性能也就越高。  

这条规则双双适用于基于英特尔以及AMD处理器的系统中。由于没有比2-2-2-5更低的延迟,因此国际内存标准组织认为以现在的动态内存技术还无法实现0或者1的延迟。  

通常情况下,我们用4个连着的阿拉伯数字来表示一个内存延迟,例如2-2-2-5。其中,第一个数字最为重要,它表示的是CAS Latency,也就是内存存取数据所需的延迟时间。第二个数字表示的是RAS-CAS延迟,接下来的两个数字分别表示的是RAS预充电时间和Act-to-Precharge延迟。而第四个数字一般而言是它们中间最大的一个。  



CAS latency是注册读取命令到第一个输出数据之间的延迟。CAS latency的单位是时钟周期。  

一块延迟设置为2-2-2-5的DDR内存,其性能要高出延迟为3-4-4-8的DIMM。这是因为前者接收到一条指令,找回数据以及送回数据的延迟要比后者要短。  


=============================================

SPD:SPD(Serial Presence Detect),笔者翻译为“配置(存在位)串行探测”,而不是“连续存在探测”,如果单从字意上理解,后者的翻译并没有问题,但从其真正用意与工作方式来看,前者更准确一些。为什么呢?下面具体说说。  
SPD是一组关于内存模组的配置信息,如P-Bank数量、电压、行地址/列地址数量、位宽、各种主要操作时序(如CL、tRCD、tRP、tRAS等)……它们存放在一个容量为256字节的EEPROM(ElectricallyErasableProgrammableReadOnlyMemory,电擦除可编程只读存储器)中。  
实际上在SPD中,JEDEC规定的标准信息只用了128个字节(还有128字节,属于厂商自己的专用区)。一般的,一个字节至少对应一种参数,有的参数需要多个字节来表述(如产品续列号,生产商在JEDEC组织中的代码)。  
其中,一个字节中的每个bit都可能用来表示这一参数的具体数值。由于SPD的信息很多,在此就不一一列出了,有兴趣的读者可以参阅相关文档。  
SPD内的时序信息由模组生产商根据所使用的内存芯片的特点编写并写入至EEPROM,主要用途就是协助北桥芯片精确调整内存的物理/时序参数,以达到最佳的使用效果。如果在BIOS中将内存设置选项定为“By SPD”。  
那么在开机时,北桥会根据SPD中的参数信息来自动配置相应的内存时序与控制寄存器,避免人为出现调校错误而引起故障。当然,对于DIYer来说,也可以自由调整时序与控制参数(物理参数仍要借助SPD或北桥自己检测来确定)。
=======================================
DDR:
以往的SDRAM都只是单面取数据,而现在的DDR可以实现双面存取,速度当然快多啦,简单地说就是双通道内存的意思。  
DDR内存现在已成为内存市场中新的宠儿,因其合理的性价比从其诞生以来一直受到人们热烈的期望,希望这一新的内存产品全面提升系统的处理速度和带宽,就连对Rambus抱有无限希望的Intel公司也向外界宣布将以最快的速度生产支持DDR内存的新一代P4系统。不难看出,DDR真的是大势所趋。  
近来市场上已闻诸多厂商开始陆续推出自己的DDR内存产品,国际上少数内存生产商之一的金士顿公司(Kingston)其实在去年年底就已完成了批量生产DDR内存的生产线的建设,现在金士顿公司(Kingston)已准备开始向全球接受订单开始大量供货了。  
那么究竟什么是DDR内存呢?其技术优势又在何处呢?请让我们先了解一下这样新的事物。  
DDR是Double Data Rate SDRAM的缩写(双倍数据速率)。DDR SDRAM内存技术是从主流的PC66,PC100,PC133 SDRAM技术发展而来。这一新技术使新一代的高性能计算机系统成为可能,包括台式机、工作站、服务器、便携式,也包括新的通信产品,如路由器。DDR内存目前被广泛应用于高性能图形适配器。  
DDR DIMMs与SDRAM DIMMs的物理元数相同,但两侧的线数不同,DDR应用184pins,而SDRAM则应用168pins。因此,DDR内存不向后兼容SDRAM,要求专为DDR设计的主板与系统。  
DDR内存技术是成熟的PC100和PC133SDRAM技术的革命性进步。DDR内存芯片由半导体制造商用现有的晶圆片,程序及测试设备生产,从而降低了内存芯片的成本。Kingston能够利用其现有的制造与测试设备在全球范围内提供DDR模块。  
主要的技术及芯片公司,包括Intel, AMD, Via Technology, Acer Labs (Ali), Silicon Integrated Systems (SiS), nVidia, ATI,及ServerWorks都已宣布支持DDR内存。主板及系统支持DDR内存在2000的Q4中已获引进,在2001年被大量采用。  
DDR DIMM的规范由JEDEC定案。JEDEC是电子行业联盟的半导体工业标准化组织。大约300家会员公司提交行业中每一环节的标准,积极合作来发展符合行业需求的标准体系。Kingston是JEDEC的长期会员,并且是JEDEC的理事会成员
======================================================
DDR2:
===================================================
DDR2(Double Data Rate 2) SDRAM是由JEDEC(电子设备工程联合委员会)进行开发的新生代内存技术标准,它与上一代DDR内存技术标准最大的不同就是,虽然同是采用了在时钟的上升/下降延同时进行数据传输的基本方式,但DDR2内存却拥有两倍于上一代DDR内存预读取能力(即:4bit数据读预取)。换句话说,DDR2内存每个时钟能够以4倍外部总线的速度读/写数据,并且能够以内部控制总线4倍的速度运行。

此外,由于DDR2标准规定所有DDR2内存均采用FBGA封装形式,而不同于目前广泛应用在DDR上的TSOP/TSOP-II封装形式,FBGA封装可以提供了更为良好的电气性能与散热性,为DDR2内存的稳定工作与未来频率的发展提供了坚实的基础。回想起DDR的发展历程,从第一代应用到个人电脑的DDR200经过DDR266、DDR333到今天的双通道DDR400技术,第一代DDR的发展也走到了技术的极限,已经很难通过常规办法提高内存的工作速度;随着Intel最新处理器技术的发展,前端总线对内存带宽的要求是越来越高,拥有更高更稳定运行频率的DDR2内存将是大势所趋。



DDR2与DDR的区别:

1、延迟问题:

从上表可以看出,在同等核心频率下,DDR2的实际工作频率是DDR的两倍。这得益于DDR2内存拥有两倍于标准DDR内存的4BIT预读取能力。换句话说,虽然DDR2和DDR一样,都采用了在时钟的上升延和下降延同时进行数据传输的基本方式,但DDR2拥有两倍于DDR的预读取系统命令数据的能力。也就是说,在同样100MHz的工作频率下,DDR的实际频率为200MHz,而DDR2则可以达到400MHz。

这样也就出现了另一个问题:在同等工作频率的DDR和DDR2内存中,后者的内存延时要慢于前者。举例来说,DDR 200和DDR2-400具有相同的延迟,而后者具有高一倍的带宽。实际上,DDR2-400和DDR 400具有相同的带宽,它们都是3.2GB/s,但是DDR400的核心工作频率是200MHz,而DDR2-400的核心工作频率是100MHz,也就是说DDR2-400的延迟要高于DDR400。

2、封装和发热量:

DDR2内存技术最大的突破点其实不在于用户们所认为的两倍于DDR的传输能力,而是在采用更低发热量、更低功耗的情况下,DDR2可以获得更快的频率提升,突破标准DDR的400MHZ限制。

DDR内存通常采用TSOP芯片封装形式,这种封装形式可以很好的工作在200MHz上,当频率更高时,它过长的管脚就会产生很高的阻抗和寄生电容,这会影响它的稳定性和频率提升的难度。这也就是DDR的核心频率很难突破275MHZ的原因。而DDR2内存均采用FBGA封装形式。不同于目前广泛应用的TSOP封装形式,FBGA封装提供了更好的电气性能与散热性,为DDR2内存的稳定工作与未来频率的发展提供了良好的保障。

DDR2内存采用1.8V电压,相对于DDR标准的2.5V,降低了不少,从而提供了明显的更小的功耗与更小的发热量,这一点的变化是意义重大的。

DDR2采用的新技术:

除了以上所说的区别外,DDR2还引入了三项新的技术,它们是OCD、ODT和Post CAS。

OCD(Off-Chip Driver):也就是所谓的离线驱动调整,DDR II通过OCD可以提高信号的完整性。DDR II通过调整上拉(pull-up)/下拉(pull-down)的电阻值使两者电压相等。使用OCD通过减少DQ-DQS的倾斜来提高信号的完整性;通过控制电压来提高信号品质。

ODT:ODT是内建核心的终结电阻器。我们知道使用DDR SDRAM的主板上面为了防止数据线终端反射信号需要大量的终结电阻。它大大增加了主板的制造成本。实际上,不同的内存模组对终结电路的要求是不一样的,终结电阻的大小决定了数据线的信号比和反射率,终结电阻小则数据线信号反射低但是信噪比也较低;终结电阻高,则数据线的信噪比高,但是信号反射也会增加。因此主板上的终结电阻并不能非常好的匹配内存模组,还会在一定程度上影响信号品质。DDR2可以根据自已的特点内建合适的终结电阻,这样可以保证最佳的信号波形。使用DDR2不但可以降低主板成本,还得到了最佳的信号品质,这是DDR不能比拟的。

Post CAS:它是为了提高DDR II内存的利用效率而设定的。在Post CAS操作中,CAS信号(读写/命令)能够被插到RAS信号后面的一个时钟周期,CAS命令可以在附加延迟(Additive Latency)后面保持有效。原来的tRCD(RAS到CAS和延迟)被AL(Additive Latency)所取代,AL可以在0,1,2,3,4中进行设置。由于CAS信号放在了RAS信号后面一个时钟周期,因此ACT和CAS信号永远也不会产生碰撞冲突。
总的来说,DDR2采用了诸多的新技术,改善了DDR的诸多不足。

DDR3与DDR2的区别:
1、逻辑Bank数量  
DDR2 SDRAM中有4Bank和8Bank的设计,目的就是为了应对未来大容量芯片的需求。而DDR3很可能将从2Gb容量起步,因此起始的逻辑Bank就是8个,另外还为未来的16个逻辑Bank做好了准备。  
2、封装(Packages)  
DDR3由于新增了一些功能,所以在引脚方面会有所增加,8bit芯片采用78球FBGA封装,16bit芯片采用96球FBGA封装,而DDR2则有60/68/84球FBGA封装三种规格。并且DDR3必须是绿色封装,不能含有任何有害物质。  
3、突发长度(BL,Burst Length)  
由于DDR3的预取为8bit,所以突发传输周期(BL,Burst Length)也固定为8,而对于DDR2和早期的DDR架构的系统,BL===4也是常用的,DDR3为此增加了一个4-bit Burst Chop(突发突变)模式,即由一个BL===4的读取操作加上一个BL===4的写入操作来合成一个BL===8的数据突发传输,届时可通过A12地址线来控制这一突发模式。而且需要指出的是,任何突发中断操作都将在DDR3内存中予以禁止,且不予支持,取而代之的是更灵活的突发传输控制(如4bit顺序突发)。  
3、寻址时序(Timing)  
就像DDR2从DDR转变而来后延迟周期数增加一样,DDR3的CL周期也将比DDR2有所提高。DDR2的CL范围一般在2至5之间,而DDR3则在5至11之间,且附加延迟(AL)的设计也有所变化。DDR2时AL的范围是0至4,而DDR3时AL有三种选项,分别是0、CL-1和CL-2。另外,DDR3还新增加了一个时序参数===写入延迟(CWD),这一参数将根据具体的工作频率而定。  
4、新增功能===重置(Reset)  
重置是DDR3新增的一项重要功能,并为此专门准备了一个引脚。DRAM业界已经很早以前就要求增这一功能,如今终于在DDR3身上实现。这一引脚将使DDR3的初始化处理变得简单。当Reset命令有效时,DDR3内存将停止所有的操作,并切换至最少量活动的状态,以节约电力。在Reset期间,DDR3内存将关闭内在的大部分功能,所以有数据接收与发送器都将关闭。所有内部的程序装置将复位,DLL(延迟锁相环路)与时钟电路将停止工作,而且不理睬数据总线上的任何动静。这样一来,将使DDR3达到最节省电力的目的。  
5、新增功能===ZQ校准  
ZQ也是一个新增的脚,在这个引脚上接有一个240欧姆的低公差参考电阻。这个引脚通过一个命令集,通过片上校准引擎(ODCE,On-Die Calibration Engine)来自动校验数据输出驱动器导通电阻与ODT的终结电阻值。当系统发出这一指令之后,将用相应的时钟周期(在加电与初始化之后用512个时钟周期,在退出自刷新操作后用256时钟周期、在其他情况下用64个时钟周期)对导通电阻和ODT电阻进行重新校准。  
6、参考电压分成两个  
对于内存系统工作非常重要的参考电压信号VREF,在DDR3系统中将分为两个信号。一个是为命令与地址信号服务的VREFCA,另一个是为数据总线服务的VREFDQ,它将有效的提高系统数据总线的信噪等级。  
7、根据温度自动自刷新(SRT,Self-Refresh Temperature)  

为了保证所保存的数据不丢失,DRAM必须定时进行刷新,DDR3也不例外。不过,为了最大的节省电力,DDR3采用了一种新型的自动自刷新设计(ASR,Automatic Self-Refresh)。当开始ASR之后,将通过一个内置于DRAM芯片的温度传感器来控制刷新的频率,因为刷新频率高的话,消电就大,温度也随之升高。而温度传感器则在保证数据不丢失的情况下,尽量减少刷新频率,降低工作温度。不过DDR3的ASR是可选设计,并不见得市场上的DDR3内存都支持这一功能,因此还有一个附加的功能就是自刷新温度范围(SRT,Self-Refresh Temperature)。通过模式寄存器,可以选择两个温度范围,一个是普通的的温度范围(例如0℃至85℃),另一个是扩展温度范围,比如最高到95℃。对于DRAM内部设定的这两种温度范围,DRAM将以恒定的频率和电流进行刷新操作。  
8、局部自刷新(RASR,Partial Array Self-Refresh)  
这是DDR3的一个可选项,通过这一功能,DDR3内存芯片可以只刷新部分逻辑Bank,而不是全部刷新,从而最大限度的减少因自刷新产生的电力消耗。这一点与移动型内存(Mobile DRAM)的设计很相似。  
9、点对点连接(P2P,Point-to-Point)  
这是为了提高系统性能而进行了重要改动,也是与DDR2系统的一个关键区别。在DDR3系统中,一个内存控制器将只与一个内存通道打交道,而且这个内存通道只能一个插槽。因此内存控制器与DDR3内存模组之间是点对点(P2P,Point-to-Point)的关系(单物理Bank的模组),或者是点对双点(P22P,Point-to-two-Point)的关系(双物理Bank的模组),从而大大减轻了地址/命令/控制与数据总线的负载。而在内存模组方面,与DDR2的类别相类似,也有标准DIMM(台式PC)、SO-DIMM/Micro-DIMM(笔记本电脑)、FB-DIMM2(服务器)之分,其中第二代FB-DIMM将采用规格更高的AMB2(高级内存缓冲器)。不过目前有关DDR3内存模组的标准制定工作刚开始,引脚设计还没有最终确定。  
除了以上9点之外,DDR3还在功耗管理,多用途寄存器方面有新的设计,但由于仍入于讨论阶段,且并不是太重要的功能,在此就不详细介绍了

79347762 发表于 2007-7-15 02:39

显卡

显卡对于显示性能有很大的影响,比如你用FX60,但是如果用在MX440上,那FX60就成了鸡肋了,是说在游戏方面成鸡肋。。。
显卡的介绍顺序
显卡容量,显存的种类,显存的数据位数与带宽,显存的速度,显存时钟周期,显存封装,图形芯片,双线过滤,加速图形接口=============================================
显卡容量:
 显卡容量也叫显示内存容量,是指显示卡上的显示内存的大小。显示内存的主要功能在将显示芯片处理的资料暂时储存在显示内存中,然后再将显示资料映像到显示屏幕上,显示卡欲达到的分辨率越高,屏幕上显示的像素点就越多,所需的显示内存也就越多。而每一片显示卡至少需要具备512KB的内存,显示内存可以说是随着3 D加速卡的演进而不断地跟进。而显示内存的种类也由早期的DRAM到现在广泛流行的DDR,DDR2/DDR3。 显存与系统内存一样,也是多多益善。显存越大,可以储存的图像数据就越多,支持的分辨率与颜色数也就越高。以下计算显存容量与分辨率关系的公式: 所需显存===图形分辨率×色彩精度/8  
例如要上16bit真彩的1024×768,则需要1024×768×16/8===1.6M,即2M显存。  
对于三维图形,由于需要同时对Front buffer、Back buffer和Z buffer进行处理,因此公式为:所需显存(帧存)===图形分辨率×3×色彩精度/8  
例如一帧16bit、1024×768的三维场景,所需的帧缓存为1024×768×3×16bit/8===4.71M,即需要8M显存。  

======================================================

显存的种类:  
显存的种类有EDORAM、MDRAM、SDRAM、SGRAM、VRAM、WRAM、DDR等许多种。EDO显存曾用在Voodoo、Voodoo 2等显卡上,但目前已消声匿迹。SGRAM显存支持块写和掩码,可以看作是SDRAM的加强版,曾流行一时,但由于价格较SDRAM稍高,现在也已甚少采用。目前显卡上被广泛使用的显存就是SDRAM和DDR SDRAM了。SDRAM可以与CPU同步工作,无等待周期,减少数据传输延迟。优点是价格低廉,在中低端显卡上得到了广泛的应用。DDR是Double Data Rate是缩写,它是现有的SDRAM内存的一种进化。在设计和操作上,与SDRAM很相似,唯一不同的是DDR在时钟周期的上升沿和下降沿都能传输数据,而SDRAM则只可在上升沿传输数据,所以DDR的带宽是SDRAM的两倍,而DDR比SDRAM的数据传输率也快一倍。如果SDRAM内存的频率是133MHz,则DDR内存的频率是266MHz,因此在中高档显卡上应用广泛。

======================================================

显存的数据位数与带宽:  
数据位数指的是在一个时钟周期之内能传送的bit数,它是决定显存带宽的重要因素,与显卡性能息息相关。当显存种类相同并且工作频率相同时,数据位数越大,它的性能就越高。 显存带宽的计算方法是:运行频率×数据带宽/8。以目前的GeForce3显卡为例,其显存系统带宽===230MHz×2(因为使用了DDR显存,所以乘以2)×128/8===7.36GB。  
数据位数是显存也是显卡的一个很重要的参数。在显卡工作过程中,Z缓冲器、帧缓冲器和纹理缓冲器都会大幅占用显存带宽资源。带宽是3D芯片与本地存储器传输的数据量标准,这时候显存的容量并不重要,也不会影响到带宽,相同显存带宽的显卡采用64MB和32MB显存在性能上区别不大。因为这时候系统的瓶颈在显存带宽上,当碰到大量像素渲染工作时,显存带宽不足会造成数据传输堵塞,导致显示芯片等待而影响到速度。目前显存主要分为64位和128位,在相同的工作频率下,64位显存的带宽只有128位显存的一半。这也就是为什么Geforce2 MX200(64位SDR)的性能远远不如Geforce2 MX400(128位SDR)的原因了。目前主流的显示芯片基本都采用了256位的位宽,采用更大的位宽意味着在数据传输速度不变的情况,瞬间所能传输的数据量越大。就好比是不同口径的阀门,在水流速度一定的情况下,口径大的能提供更大的出水量。显示芯片位宽就是显示芯片内部总线的带宽,带宽越大,可以提供的计算能力和数据吞吐能力也越快,是决定显示芯片级别的重要数据之一。目前已推出最大显示芯片位宽是512位,那是由Matrox(幻日)公司推出的Parhelia-512显卡,这是世界上第一颗具有512位宽的显示芯片。而目前市场中所有的主流显示芯片,包括NVIDIA公司的GeForce系列显卡,ATI公司的Radeon系列等,全部都采用256位的位宽。这两家目前世界上最大的显示芯片制造公司也将在未来几年内采用512位宽。  显示芯片位宽增加并不代表该芯片性能更强,因为显示芯片集成度相当高,设计、制造都需要很高的技术能力,单纯的强调显示芯片位宽并没有多大意义,只有在其它部件、芯片设计、制造工艺等方面都完全配合的情况下,显示芯片位宽的作用才能得到体现。
=====================================================

显存的速度:  
显存的速度一般以ns为单位。常见的显存有2.5ns甚至更的显存。额定工作频率===1/显存速度。当然,对于一些质量较好的显存来说,显存的实际最大工作频率是有一定的余量的。显存的超频就是基于这一原理,列如将额定频率为6ns的显存超至190MHz的运行频率。  
这里还要说一说显存的实际运行频率和等效工作频率。DDR显存因为能在时钟的上升沿和下降沿都能传送数据,因此,在相同的时钟频率和数据位宽度的情况下显存带宽是普通SDRAM的两倍。换句话说,在显存速度相同的情况下,DDR显存的实际工作频率是普通SDRAM显存的2倍。同样,DDR显存达到的带宽也是普通SDRAM显存的2倍。例如,5ns的SDRAM显存的工作频率为200MHZ,而5ns的DDR显存的等效工作频率就是400MHZ。
=========================================================
显存时钟周期:
  显存时钟周期就是显存时钟脉冲的重复周期,它是作为衡量显存速度的重要指标。显存速度越快,单位时间交换的数据量也就越大,在同等情况下显卡性能将会得到明显提升。显存的时钟周期一般以ns(纳秒)为单位,工作频率以MHz为单位。显存时钟周期跟工作频率一一对应,它们之间的关系为:工作频率=1÷时钟周期×1000。那么显存频率为166MHz,那么它的时钟周期为1÷166×1000=6ns。对于DDR SDRAM显存来说,描述其工作频率时用的是等效输出频率。因为能在时钟周期的上升沿和下降沿都能传送数据,所以在工作频率和数据位宽度相同的情况下,显存带宽是SDRAM的两倍。换句话说,在显存时钟周期相同的情况下,DDR SDRAM显存的等效输出频率是SDRAM显存的两倍。例如,5ns的SDRAM显存的工作频率为200MHz,而5ns的DDR SDRAM显存的等效工作频率就是400MHz。常见显存时钟周期有7.5ns、7ns、6ns、5ns、4ns、3.8ns、3.6ns、3.3ns、2.8ns,甚至更低。
=========================================================
显存封装:
  显存封装是指显存颗粒所采用的封装技术类型,封装就是将显存芯片包裹起来,以避免芯片与外界接触,防止外界对芯片的损害。空气中的杂质和不良气体,乃至水蒸气都会腐蚀芯片上的精密电路,进而造成电学性能下降。不同的封装技术在制造工序和工艺方面差异很大,封装后对内存芯片自身性能的发挥也起到至关重要的作用。显存封装形式主要有QFP、TSOP-II、MBGA等。QFP TSOP-II MBGA=========================================================

DX:
由微软公司所制定的3D规格界面,与Windows 操作系统兼容性好,可绕过图形显示接口(GDI)直接进行支持该API的各种硬件的底层操作,大大提高了游戏的运行速度。  
目前最近的有DX9.0C,今年推出新系统VISTA(YES???)会推出DX10.0,等吧。
=============================================

图形芯片:
 显示主芯片自然是显示卡的核心,如nVIDIA公司的Riva128,TNT/TNT2,GeForce256,3dfx公司的Voodoo系列,S3公司的GX系列等。它们的主要任务就是处理系统输入的视频信息并将其进行构建、渲染等工作。显示主芯片的性能直接决定这显示卡性能的高低,不同的显示芯片,不论从内部结构还是其性能,都存在着差异,而其价格差别也很大。  
=========================================================
双线过滤:
 这是一种较好的材质影像插补的处理方式,会先找出最接近像素的四个图素,然后在它们之间做差补效果,最后产生的结果才会被贴到像素的位置上,这样不会看到“马赛克”现象。这种处理方式较适用于有一定景深的静态影像,不过无法提供最佳品质,也不适用于移动中的物件。
三线过滤:
 这是一种更复杂材质影像插补处理方式,会用到相当多的材质影像,而每张的大小恰好会是另一张的四分之一。例如有一张材质影像是512×512个图素,第二张就会是256×256个图素,第三张就会是128×128个图素等,总之,最小的一张是1×1。凭借这些多重解析度的材质影像,当遇到景深极大的场景时(如飞行模拟),就能提供高品质的贴图效果。一个“双线过滤”需要三次混合,而“三线过滤”就得做七次混合处理,所以每个像素就需要多用21/3倍以上的计算时间。还需要两倍大的存储器时钟带宽。但是“三线过滤”可以提供最高的贴图品质,会去除材质的“闪烁”效果。对于需要动态物体或景深很大的场景应用方面而言,只有“三线过滤”才能提供可接受的材质品质。

===================================================

加速图形接口:
常见的AGP和最新的主流PCI-E接口,现在够机的第一选择自然是PCI-E了

79347762 发表于 2007-7-15 02:39

主板篇

依次为:
电源回路,北桥芯片,S-ATA1(2),I/O地址,前端总线,南桥芯片,硬件错误侦测,板载声卡,板载声卡,CNR,主板结构BTX和ATX,硬件监控,主板结构,硬盘接口,显示芯片,BIOS,CMOS,电容


电源回路:
电源回路是主板中的一个重要组成部分,其作用是对主机电源输送过来的电流进行电压的转换,将电压变换至CPU所能接受的内核电压值,使CPU正常工作,以及对主机电源输送过来的电流进行整形和过滤,滤除各种杂波和干扰信号以保证电脑的稳定工作。电源回路的主要部分一般都位于主板CPU插槽附近。
================================================

北桥芯片:
就是主板上离CPU最近的一块芯片,负责与CPU的联系并控制内存,作用是在处理器与PCI总线、DRAM、AGP和L2高速缓存之间建立通信接口。北桥芯片提供对CPU类型,主频,内存的类型,内存的最大容量,PCI/AGP插槽等设备的支持。北桥起到的作用非常明显,在电脑中起着主导的作用,所以人们习惯的称为主桥(Host Bridge)。
=============================================

S-ATA Ⅰ:
Serial ATA也就是串行ATA,它与目前广泛采用的ATA/100或ATA/133等接口最根本的不同在于,以前硬盘所有的ATA接口类型都是采用并行方式进行数据通信,因而统称并行ATA。而Serial ATA,顾名思义,也就是采用串行方式(Serial ATA采用“序列式”的结构,把若干位(bit)数据打包,然后采用比并行式更高的速度(高50%),把数据分组形式传输至主机的方式)进行数据传输。
======================================================

S-ATA Ⅱ

S-ATA Ⅱ技术产品将突破SATA技术面临的一些局限,其中最主要一点是对原本相对较低性能的提高,其次则是可靠性的改善。 SATA2.0的规格特征: 1)支持NCQ(Native Command Queue,本机命令队列). 由于磁道捕捉时间和转速的改善和优化,硬盘可更有效的进行信息捕捉/读/写数据。同时,由于硬盘读写头更加有效的转动,也使机械部件之间的磨损减少,增加了硬盘的寿命。 2)SATA 2.0可将性能/带宽提升至300MB/秒,性能上的飞跃使SATA 2.0成为企业工作站和入门级服务器性价比最好的选择。
PNP:
就是即插即用,对于许多PC用户而言,如果需要为你的PC增加一些新的功能,比如欣赏CD唱盘、看VCD影碟、收发传真等等,那么就得为你的PC机增加一些新的设备,如声卡、CD-ROM、MPEG硬件解压卡、FAX/MODEM传真卡等一系列新设备,通常而言,安装新设备的过程为:  
(1) 按照所购买设备的说明来设置开关和跳线。  
(2) 正确地将新设备按规定的要求插入主板扩展槽中。  
(3) 安装随新设备所配的驱动程序。  
(4) 重新引导系统。  
然后,你很有可能得花费大量 的时间和精力来处理安装过程中所出现的种种问题。比如手工改变设备的开关或跳线,跟踪CONFIG。SYS文件以解决内部驻留程序的冲突等等。原因在于一台PC机至少有一个或者多个总线设备(BUS DEVICE),而多个总线设备则有可能共享相同的系统总线(SYSTEM BUS),于是这就不可避免地产生硬件资源上的冲突。轻者是新安装的设备无法使用或系统无法启动,严重的话就会导致系统的崩溃。怎样去解决这个问题?人们希望系统应该能提供对底层硬件资源包括IRQ(中断请求)、I/O(输入/输出)端口、DMA(直接内存存取)通道以及内容等的智能管理能力,免除用户因安装新的硬件设备而带来的烦恼。  
随着微软推出WINDOWS 95/98,它也宣传了WINDOWS95/98为用户提供的底层硬件资源的智能管理能力,即WINDOWS95/98具有即插即用(PNP:Plug and Play)的功能,由此即插即用才为人们广泛重视。  
即插即用这个概念很久以前就已被提出,它的标准则始于几种洞庭湖的解决PC硬件配置问题的方案,其中包括IBM的微通道总线以及COMPAQ公司在EISA(扩展标准工业系统总线)上的不懈努力。MICROSOFT制订即插即用的规范的时间从1991年才开始,促使MICROSOFT发展即插即用是APPLE公司在其广告中宣称MICROSOFT WINDOWS系统列在易于配置和使用方面远远比不上APPLE公司的MAC OS操作系统,APPLE公司的MACINTOSH微机上修改系统的设置简单到你只需插入或拔出扩展卡,机器就可以在其SYSTEM系列操作系统下很好地工作,从而省去了再设置开关、跳线或分配系统资源的烦恼,可以说是现阶段下完全的即插即用。传说固然归于传说,然而归根结底的原因还是因为技术的进步使得MICROSFT欲垄断个人PC机的操作系统。而欲使系统在易于使用上有一个飞跃,那么它就必须解决多个总线设备共享系统总线时所带来的系统底层资源的分配和再分配问题。MICROSFOT 同INTEL和COMPAQ的结盟促使其在1993年以后相继颂了即插即用的规范,包括其他总线类型如ISA、EISA、PCMCIA、PCI、VESA以及SCSI等,但是就现阶段而言,完全意义上的即插即用恐怕还需要一段时间才能够进一步完善。  
MICROSFOT在WINDOWS FOR WORKGROUPS和WINDOWS NT上就已开始尝试一些设备检测和配置方面的试验。在WINDOWS FOR WORKGROUPS中,操作系统可自动检测出视频适配卡、鼠标、键盘及网络适配卡等的类型。WINDOWS NT则更进一步,它可以检测出SCSI设备及其他一些硬件,到了WINDOWS95/98,则几乎可以实现全自动的安装和系统的动态重配置。尽管WINDOWS95不可能对所有旧设备都能正确地识别,甚至有时也会求助于用户,但就即插即用本身而言,这已经是一个真正的飞跃了。现在的WIDNOWSXP在PNP方面又得到进一步的发展

======================================================

I/O地址:

这个学过编程的都知道了,I/O地址中I是input的简写,O是output的简写,也就是输入输出地址。每个设备都会有一个专用的I/O地址,用来处理自己的输入输出信息。因此这是绝对不能够重复的。如果这两个资源有了冲突,系统硬件就会工作不正常。
================================================

前端总线:

前端总线是处理器与主板北桥芯片或内存控制集线器之间的数据通道,其频率高低直接影响CPU访问内存的速度;BIOS可看作是一个记忆电脑相关设定的软件,可以通过它调整相关设定。BIOS存储于板卡上一块芯片中,这块芯片的名字叫COMS RAM。但就像ATA与IDE一样,大多人都将它们混为一谈。 因为主板直接影响到整个系统的性能、稳定、功能与扩展性,其重要性不言而喻。主板的选购看似简单,其实要注意的东西很多。选购时当留意产品的芯片组、做工用料、功能接口甚至使用简便性,这就要求对主板具备透彻的认识,才能选择到满意的产品。  
总线是将信息以一个或多个源部件传送到一个或多个目的部件的一组传输线。通俗的说,就是多个部件间的公共连线,用于在各个部件之间传输信息。人们常常以MHz表示的速度来描述总线频率。总线的种类很多,前端总线的英文名字是Front Side Bus,通常用FSB表示,是将CPU连接到北桥芯片的总线。计算机的前端总线频率是由CPU和北桥芯片共同决定的。 CPU就是通过前端总线(FSB)连接到北桥芯片,进而通过北桥芯片和内存、显卡交换数据。前端总线是CPU和外界交换数据的最主要通道,因此前端总线的数据传输能力对计算机整体性能作用很大,如果没足够快的前端总线,再强的CPU也不能明显提高计算机整体速度。数据传输最大带宽取决于所有同时传输的数据的宽度和传输频率,即数据带宽=(总线频率×数据位宽)÷8。目前PC机上所能达到的前端总线频率有266MHz、333MHz、400MHz、533MHz、800MHz甚至更高,前端总线频率越大,代表着CPU与北桥芯片之间的数据传输能力越大,更能充分发挥出CPU的功能。现在的CPU技术发展很快,运算速度提高很快,而足够大的前端总线可以保障有足够的数据供给给CPU,较低的前端总线将无法供给足够的数据给CPU,这样就限制了CPU性能得发挥,成为系统瓶颈。 CPU和北桥芯片间总线的速度,更实质性的表示了CPU和外界数据传输的速度。而外频的概念是建立在数字脉冲信号震荡速度基础之上的,也就是说,100MHz外频特指数字脉冲信号在每秒钟震荡一万万次,它更多的影响了PIC及其他总线的频率。之所以前端总线与外频这两个概念容易混淆,主要的原因是在以前的很长一段时间里(主要是在Pentium 4出现之前和刚出现Pentium 4时),前端总线频率与外频是相同的,因此往往直接称前端总线为外频,最终造成这样的误会。随着计算机技术的发展,人们发现前端总线频率需要高于外频,因此采用了QDR(Quad Date Rate)技术,或者其他类似的技术实现这个目前。这些技术的原理类似于AGP的2X或者4X,它们使得前端总线的频率成为外频的2倍、4倍甚至更高,从此之后前端总线和外频的区别才开始被人们重视起来。

===============================================================

南桥芯片:

  南桥芯片(South Bridge)是主板芯片组的重要组成部分,一般位于主板上离CPU插槽较远的下方,PCI插槽的附近,这种布局是考虑到它所连接的I/O总线较多,离处理器远一点有利于布线。相对于北桥芯片来说,其数据处理量并不算大,所以南桥芯片一般都没有覆盖散热片。南桥芯片不与处理器直接相连,而是通过一定的方式(不同厂商各种芯片组有所不同,例如英特尔的英特尔Hub Architecture以及SIS的Multi-Threaded“妙渠”)与北桥芯片相连。南桥芯片负责I/O总线之间的通信,如PCI总线、USB、LAN、ATA、SATA、音频控制器、键盘控制器、实时时钟控制器、高级电源管理等,这些技术一般相对来说比较稳定,所以不同芯片组中可能南桥芯片是一样的,不同的只是北桥芯片。所以现在主板芯片组中北桥芯片的数量要远远多于南桥芯片。例如早期英特尔不同架构的芯片组Socket 7的430TX和Slot 1的440LX其南桥芯片都采用82317AB,而近两年的芯片组845E/845G/845GE/845PE等配置都采用ICH4南桥芯片,但也能搭配ICH2南桥芯片。更有甚者,有些主板厂家生产的少数产品采用的南北桥是不同芯片组公司的产品,例如以前升技的KG7-RAID主板,北桥采用了AMD 760,南桥则是VIA 686B。 南桥芯片的发展方向主要是集成更多的功能,例如网卡、RAID、IEEE 1394、甚至WI-FI无线网络等等。主板中间靠下的那个较大的芯片,就是主板的南桥芯片


现在市场上的NF4-4X芯片的主板,南北桥芯片已经集合到了一块芯片上。
======================================================

硬件错误侦测:
  由于硬件的安装错误、不兼容或硬件损坏等原因,容易引起的硬件错误,从而导致轻则运行不正常,重则系统无法工作的故障。碰到此类情况,以前只能通过POST自检时的BIOS报警提示音,硬件替换法或通过DEBUG卡来查找故障原因。但这些方法使用起来很不方便,而且对用户的专业知识也要求较高,对普通用户并不适用。针对此问题,现在的主板厂商加如了许多人性化的设计,以方便用户快速,准确地判断故障原因。例如,现在许多主板特别设计了硬件加电自检故障的语言播报功能。以华硕的“POST播报员”为例,这个功能主要由华邦电子的W83791SD芯片,配合华硕自己设计芯片组合而成。可以监测CPU电压、CPU风扇转速、CPU温度、机壳风扇转速、电源风扇是否失效、机箱入侵警告等。这样就较好地保持了电脑的最佳工作状态。当系统有某个设备出故障时,POST播报员就会用语音提醒该配件出了故障。在硬件侦错报警方面,一些主板大厂都有自己非常独到的设计,譬如微星主板,用四支LED来反映主板的故障所在。而有的主板则干脆引入了早些年的Debug侦错卡的侦错技术,采用了更为直接的数码管来指出故障所在。另外,许多厂商还为主板设计了AGP保护电路,除了起显卡保护作用之外,保护电路还用一个LED发光二极管来告诉用户故障是否由显卡引起。
====================================

板载声卡:
主板上附带的音效输出芯片,支持独立音效输出,常见为ALC650、CMI9761A。

===========================

CNR:
CNR插槽

CNR是继AMR之后作为INTEL的标准扩展接口,其已被闲置了很久,基本见不到CNR的设备出现,AC_Link是专为声音处理和调制解调器开发的非常简单而且有效的协议,它可以允许声音处理部分和调制解调器的数字信号直接从PC传送到CODEC(多媒体数字信号编解码器),再由CODEC将数字信号转换为模拟信号并输出。CNR标准的基本思想是将声音处理和调制解调器的数字电路部分放进PC芯片中,而把模拟电路放在插卡上(CNR声卡的CODEC部分)或者在主板上(主板的声音CODEC部分)。相对于传统的PCI插卡,CNR成本更低,不需要声卡和调制解调器的PCI控制器,而且节省空间,高度集成,可以缩短CPU和CODEC之间的数字信号路径。CNR的作用其实和AMR是一样的,只不过CNR所能提供的功能比较广泛。这是因为CNR所搭配的Intel ICH2(FW82801BA)南桥芯片所整合的功能比ICH1(FW82801AA)更多的关系。所以随着i815E/i815EP主板的日渐普及,在市面上可以看到的CNR卡会愈来愈多,这些种类包括有:音频CNR、调制解调器CNR、LAN CNR、HomePNA CNR、USB Hub CNR等等。HomePNA是ICH2所支持的新功能,可以利用一般的RJ-11电话线来建立起局域网络,虽然最高频宽只有1Mbps(未来会支持10/100Mbps),不过这种低配置成本的区域网络倒是非常适合在家庭中使用。家庭局域网是CNR支持的一种重要功能。因为随着网络的逐步深入,家庭对广域网和局域网的需求会日益增加。但由于家庭在电信连接设施方面已具有成型而固定的基础。如果完全采用新的设施要求,那么必架构内进行大量的基础设施建设,而且这种作法也不利于其自身标准的推广应用。所以CNR选择了与RJ—11电话线实现无缝集成,这就为PC的小范围连接提供了经济高效的解决方案。
================================================分
主板架构BTX:
BTX是英特尔提出的新型主板架构Balanced Technology Extended的简称,是ATX结构的替代者,这类似于前几年ATX取代AT和Baby AT一样。革命性的改变是新的BTX规格能够在不牺牲性能的前提下做到最小的体积。新架构对接口、总线、设备将有新的要求。重要的是目前所有的杂乱无章,接线凌乱,充满噪音的PC机将很快过时。当然,新架构仍然提供某种程度的向后兼容,以便实现技术革命的顺利过渡。 BTX具有如下特点:支持Low-profile,也即窄板设计,系统结构将更加紧凑; 针对散热和气流的运动,对主板的线路布局进行了优化设计; 主板的安装将更加简便,机械性能也将经过最优化设计。
===================================================
ATX:
英特尔在95年1月公布了扩展AT主板结构,即ATX(AT extended)主板标准。这一标准得到世界主要主板厂商支持,目前已经成为最广泛的工业标准。97年2月推出了ATX2.01版。 ATX主板针对AT和Baby AT主板的缺点做了以下改进:主板外形在Baby AT的基础上旋转了90度,其几何尺寸改为30.5cm×24.4cm。 采用7个I/O插槽,CPU与I/O插槽、内存插槽位置更加合理。 优化了软硬盘驱动器接口位置。 提高了主板的兼容性与可扩充性。 采用了增强的电源管理,真正实现电脑的软件开/关机和绿色节能功能。
=========================================================

硬件监控:
  为了让用户能够了解硬件的工作状态(温度、转速、电压等),主板上通常有一块至两块专门用于监控硬件工作状态的硬件监控芯片。当硬件监控芯片与各种传感元件(电压、温度、转速)配合时,便能在硬件工作状态不正常时,自动采取保护措施或及时调整相应元件的工作参数,以保证电脑中各配件工作在正常状态下。常见的有温度控制芯片和通用硬件监控芯片等等。温度控制芯片:主流芯片可以支持两组以上的温度检测,并在温度超过一定标准的时候自动调整处理器散热风扇的转速,从而降低CPU的温度。超过预设温度时还可以强行自动关机,从而保护电脑系统。常见的温度控制芯片有Analog Devices的ADT7463等等。通用硬件监控芯片:这种芯片通常还整合了超级I/O(输出/输出管理)功能,可以用来监控受监控对象的电压、温度、转速等。对于温度的监控需与温度传感元件配合;对风扇电机转速的监控,则需与CPU或显卡的散热风扇配合。比较常见的硬件监控芯片有华邦公司的W83697HF和W83627HF,SMSC公司的LPC47M172,ITE公司的IT8705F、IT8703F,ASUS公司的AS99172F(此芯片能同时对三组系统风扇和三组系统温度进行监控)等。

============================================================

  由于主板是电脑中各种设备的连接载体,而这些设备的各不相同的,而且主板本身也有芯片组,各种I/O控制芯片,扩展插槽,扩展接口,电源插座等元器件,因此制定一个标准以协调各种设备的关系是必须的。所谓主板结构就是根据主板上各元器件的布局排列方式,尺寸大小,形状,所使用的电源规格等制定出的通用标准,所有主板厂商都必须遵循。主板结构分为AT、Baby-AT、ATX、Micro ATX、LPX、NLX、Flex ATX、EATX、WATX以及BTX等结构。其中,AT和Baby-AT是多年前的老主板结构,现在已经淘汰;而LPX、NLX、Flex ATX则是ATX的变种,多见于国外的品牌机,国内尚不多见;EATX和WATX则多用于服务器/工作站主板;ATX是目前市场上最常见的主板结构,扩展插槽较多,PCI插槽数量在4-6个,大多数主板都采用此结构;Micro ATX又称Mini ATX,是ATX结构的简化版,就是常说的“小板”,扩展插槽较少,PCI插槽数量在3个或3个以下,多用于品牌机并配备小型机箱;而BTX则是英特尔制定的最新一代主板结构。
======================================================

硬盘接口:
硬盘接口是硬盘与主机系统间的连接部件,作用是在硬盘缓存和主机内存之间传输数据。不同的硬盘接口决定着硬盘与计算机之间的连接速度,在整个系统中,硬盘接口的优劣直接影响着程序运行快慢和系统性能好坏。从整体的角度上,硬盘接口分为IDE、SATA、SCSI和光纤通道四种,IDE接口硬盘多用于家用产品中,也部分应用于服务器,SCSI接口的硬盘则主要应用于服务器市场,而光纤通道只在高端服务器上,价格昂贵。SATA是种新生的硬盘接口类型,还正出于市场普及阶段,在家用市场中有着广泛的前景。在IDE和SCSI的大类别下,又可以分出多种具体的接口类型,又各自拥有不同的技术规范,具备不同的传输速度,比如ATA100和SATA;Ultra160 SCSI和Ultra320 SCSI都代表着一种具体的硬盘接口,各自的速度差异也较大。
======================================================

显示芯片:
  显示芯片是指主板所板载的显示芯片,有显示芯片的主板不需要独立显卡就能实现普通的显示功能,以满足一般的家庭娱乐和商业应用,节省用户购买显卡的开支。板载显示芯片可以分为两种类型:整合到北桥芯片内部的显示芯片以及板载的独立显示芯片,市场中大多数板载显示芯片的主板都是前者,如常见的865G/845GE主板等;而后者则比较少见,例如精英的“游戏悍将”系列主板,板载SIS的Xabre 200独立显示芯片,并有64MB的独立显存。主板板载显示芯片的历史已经非常悠久了,从较早期VIA的MVP4芯片组到后来英特尔的810系列,815系列,845GL/845G/845GV/845GE,865G/865GV以及即将推出的910GL/915G/915GL/915GV等芯片组都整合了显示芯片。而英特尔也正是依靠了整合的显示芯片,才占据了图形芯片市场的较大份额。目前各大主板芯片组厂商都有整合显示芯片的主板产品,而所有的主板厂商也都有对应的整合型主板。英特尔平台方面整合芯片组的厂商有英特尔,VIA,SIS,ATI等,AMD平台方面整合芯片组的厂商有VIA,SIS,NVIDIA等等。
======================================================

BIOS:
这个东西可以说是CMOS的软件吧
呵呵,下面看看具体如何的是:
计算机用户在使用计算机的过程中,都会接触到BIOS,它在计算机系统中起着非常重要的作用。  
BIOS,完整地说应该是ROM-BIOS,是只读存储器基本输入/输出系统的简写,它实际上是被固化到计算机中的一组程序,为计算机提供最低级的、最直接的硬件控制。准确地说,BIOS是硬件与软件程序之间的一个“转换器”或者说是接口(虽然它本身也只是一个程序),负责解决硬件的即时需求,并按软件对硬件的操作要求具体执行。  
 一、BIOS的功能  
  从功能上看,BIOS分为三个部分:  
  1.自检及初始化程序;  
  2.硬件中断处理;  
  3.程序服务请求。  
  下面我们就逐个介绍一下各部分功能:  
  (一)自检及初始化  
  这部分负责启动计算机,具体有三个部分,第一个部分是用于计算机刚接通电源时对硬件部分的检测,也叫做加电自检(POST),功能是检查计算机是否良好,例如内存有无故障等。第二个部分是初始化,包括创建中断向量、设置寄存器、对一些外部设备进行初始化和检测等,其中很重要的一部分是BIOS设置,主要是对硬件设置的一些参数,当计算机启动时会读取这些参数,并和实际硬件设置进行比较,如果不符合,会影响系统的启动。  
  最后一个部分是引导程序,功能是引导DOS或其他操作系统。BIOS先从软盘或硬盘的开始扇区读取引导记录,如果没有找到,则会在显示器上显示没有引导设备,如果找到引导记录会把计算机的控制权转给引导记录,由引导记录把操作系统装入计算机,在计算机启动成功后,BIOS的这部分任务就完成了。  
  (二)程序服务处理和硬件中断处理  
  这两部分是两个独立的内容,但在使用上密切相关。  
  程序服务处理程序主要是为应用程序和操作系统服务,这些服务主要与输入?输出设备有关,例如读磁盘、文件输出到打印机等。为了完成这些操作,BIOS必须直接与计算机的I/O设备打交道,它通过端口发出命令,向各种外部设备传送数据以及从它们那儿接收数据,使程序能够脱离具体的硬件操作,而硬件中断处理则分别处理PC机硬件的需求,因此这两部分分别为软件和硬件服务,组合到一起,使计算机系统正常运行。  
  BIOS的服务功能是通过调用中断服务程序来实现的,这些服务分为很多组,每组有一个专门的中断。例如视频服务,中断号为10H;屏幕打印,中断号为05H;磁盘及串行口服务,中断14H等。每一组又根据具体功能细分为不同的服务号。应用程序需要使用哪些外设、进行什么操作只需要在程序中用相应的指令说明即可,无需直接控制。  
二、BIOS的种类  
  由于BIOS直接和系统硬件资源打交道,因此总是针对某一类型的硬件系统,而各种硬件系统又各有不同,所以存在各种不同种类的BIOS,随着硬件技术的发展,同一种BIOS也先后出现了不同的版本,新版本的BIOS比起老版本来说,功能更强。  
  目前市场上主要的BIOS有AMI BIOS和Award BIOS。  
  1.AMI BIOS  
  AMI BIOS是AMI公司出品的BIOS系统软件,最早开发于80年代中期,为多数的286和386计算机系统所采用,因对各种软、硬件的适应性好、硬件工作可靠、系统性能较佳、操作直观方便的优点受到用户的欢迎。  
  90年代,AMI又不断推出新版本的BIOS以适应技术的发展,但在绿色节能型系统开始普及时,AMI似乎显得有些滞后,Award BIOS的市场占有率借此机会大大提高,在这一时期,AMI研制并推出了具有窗口化功能的WIN BIOS,这种BIOS设置程序使用非常方便,而且主窗口的各种标记也比较直观,例如,一只小兔子表示优化的默认设置,而一只小乌龟则表示保守的设置,一个骷髅用来表示反病毒方面的设置,画笔和调色板则表示色彩的设置。  
  AMI WinBIOS已经有多个版本,目前用得较多的有奔腾机主板的Win BIOS,具有即插即用、绿色节能、PCI总线管理等功能。  
  2.Award BIOS  
  Award BIOS是Award Software公司开发的BIOS产品,目前十分流行,许多586主板机都采用Award BIOS,功能比较齐全,对各种操作系统提供良好的支持。Award BIOS也有许多版本,现在用得最多的是4.X版。  
BIOS可以被映射,请检查BIOS SHADOWED 是否已被启用,BIOS Shadowed的作用是将系统的BIOS映射到系统内存中,这样当系统需要读取BIOS信息时,就可以直接从内存中读取,而不需要访问主板的BIOS芯片。由于内存的读取速度比BIOS芯片的读取速度快得多,因此,使用BIOS Shadowed***能可以在一定程度上提高电脑的性能。  
如果你想启用BIOS Shadowed***能,可在开机时按Del键进入BIOS,进入“Advanced BIOS Features”选项,在里面寻找是否有BIOS Shadowed选项,如有,只要将其值由“Disabled”改为“Enabled”,即可启用BIOS Shadowed***能。如没有该选项,则说明主板厂商未提供此***能,你可上主板厂商的网站,看看新版本BIOS是否提供了BIOS Shadowed***能,如提供了,可考虑升级主板BIOS。要提醒你注意的是,BIOS Shadowed虽然能提高系统性能,但由于系统在运行时很少读取BIOS信息,因此BIOS Shadowed所提高的性能是非常有限的。======================================================

再看CMOS:CMOS(本意是指互补金属氧化物半导体===一种大规模应用于集成电路芯片制造的原料)是微机主板上的一块可读写的RAM芯 片,用来保存当前系统的硬件配置和用户对某些参数的设定。CMOS可由主板的电池供电,即使系统掉电,信息也不会丢失。 CMOS RAM本身只是一块存储器,只有数据保存功能,而对CMOS中各项参数的设定要通过专门的程序。早期的CMOS设置程序驻留 在软盘上的(如IBM的PC/AT机型),使用很不方便。现在多数厂家将CMOS设置程序做到了BIOS芯片中,在开机时通过特定的按键 就可进入CMOS设置程序方便地对系统进行设置,因此CMOS设置又被叫做BIOS设置。 早期的CMOS是一块单独的芯片MC146818A(DIP封装),共有64个字节存放系统信息,见CMOS配置数据表。386以后的微机一般将 MC146818A芯片集成到其它的IC芯片中(如82C206,PQFP封装),最新的一些586主板上更是将CMOS与系统实时时钟和后备电池集 成到一块叫做DALLDA DS1287的芯片中。随着微机的发展、可设置参数的增多,现在的CMOS RAM一般都有128字节及至256字节 的容量。为保持兼容性,各BIOS厂商都将自己的BIOS中关于CMOS RAM的前64字节内容的设置统一与MC146818A的CMOS RAM格式 一致,而在扩展出来的部分加入自己的特殊设置,所以不同厂家的BIOS芯片一般不能互换,即使是能互换的,互换后也要对 CMOS信息重新设置以确保系统正常运行. 你认识主板上的BIOS芯片吗? 介绍常见的BIOS芯片的识别 ROM BIOS是主板上存放微机基本输入输出程序的只读存贮器,其功能是微机的上电自检、开机引导、基本外设I/O和系统CMOS 设置。 主板上的ROM BIOS芯片是主板上唯一贴有标签的芯片,一般为双排直插式封装(DIP),上面印有“BIOS”字样。虽然有些BIOS 芯片没有明确印出“BIOS”,但凭借外贴的标签也能很容易地将它认出。 586以前的BIOS多为可重写EPROM芯片,上面的标签起着保护BIOS内容的作用(紫外线照射会使EPROM内容丢失),不能随便撕下。 586以后的ROM BIOS多采用EEPROM(电可擦写只读ROM),通过跳线开关和系统配带的驱动程序盘,可以对EEPROM进行重写,方便 地实现BIOS升级。 常见的BIOS芯片有AMI、Award、Phoenix等,在芯片上都能见到厂商的标记。=========================================================

再来说说电容:
超频的玩家一定不陌生,因为常爆:)
所谓电容,就是容纳和释放电荷的电子元器件。电容的基本工作原理就是充电放电,  
当然还有整流、振荡以及其它的作用。另外电容的结构非常简单,主要由两块正负电极和  
夹在中间的绝缘介质组成,所以电容类型主要是由电极和绝缘介质决定的。电容的用途非常多,主要有如下几种:  
1.隔直流:作用是阻止直流通过而让交流通过。  
2.旁路(去耦):为交流电路中某些并联的元件提供低阻抗通路。  
3.耦合:作为两个电路之间的连接,允许交流信号通过并传输到下一级电路  
4.滤波:这个对DIY而言很重要,显卡上的电容基本都是这个作用。  
5.温度补偿:针对其它元件对温度的适应性不够带来的影响,而进行补偿,改善电路的稳定性。  
6.计时:电容器与电阻器配合使用,确定电路的时间常数。  
7.调谐:对与频率相关的电路进行系统调谐,比如手机、收音机、电视机。  
8.整流:在预定的时间开或者关半闭导体开关元件。  
9.储能:储存电能,用于必须要的时候释放。例如相机闪光灯,加热设备等等。(如今某些电容的储能水平已经接近锂电池的水准,一个电容储存的电能可以供一个手机使用一天。  
生产就是酸甜苦辣,努力,发挥聪明才智,明天会更好.  
======================================================

有电容当然有固态电容啦~:
固态电容全称为:固态铝质电解电容。它与普通电容(即液态铝质电解电容)最大差别在于采用了不同的介电材料,液态铝电容介电材料为电解液,而固态电容的介电材料则为导电性高分子。  
那固态电容又好在哪里呢?对于经常去网吧或者长时间使用电脑的朋友,一定有过或者听过由于主板电容导致电脑不稳定,甚至于主板电容爆裂的事情!那就是因为一方面主板在长时间使用中,过热导致电解液受热膨胀,导致电容失去作用甚至由于超过沸点导致膨胀爆裂!另一方面是,如果主板在长期不通电的情形下,电解液容易与氧化铝形成化学反应,造成开机或通电时形成爆炸的现象。但是如果采用固态电容,就完全没有这样的隐患和危险了!  

由于固态电容采用导电性高分子产品作为介电材料,该材料不会与氧化铝产生作用,通电后不致于发生爆炸的现象;同时它为固态产品,自然也就不存在由于受热膨胀导致爆裂的情况了。  

固态电容具备环保、低阻抗、高低温稳定、耐高纹波及高信赖度等优越特性,是目前电解电容产品中最高阶的产品。由于固态电容特性远优于液态铝电容,固态电容耐温达摄氏 260度,且导电性、频率特性及寿命均佳,适用于低电压、高电流的应用,主要应用于数字产品如薄型DVD、投影机及工业计算机等。

晨风鸟 发表于 2007-7-15 09:01

篇幅还可以

不是很巨大

内容还可以

有空研究研究

还是有收获的。。

大漠雄鹰 发表于 2009-2-3 09:36

写得很全。支持啦。

页: [1]

Powered by Discuz! Archiver 7.2  © 2001-2009 Comsenz Inc.