推普规范字小报内容:内存常用术语

来源:百度文库 编辑:中财网 时间:2024/05/06 19:41:42
内存常用术语
适用类型
  根据内存条所应用的主机不同,内存产品也各自不同的特点。台式机内存是DIY市场内最为普遍的内存,价格也相对便宜。笔记本内存则对尺寸、稳定性、散热性方面有一定的要求,价格要高于台式机内存。而应用于服务器的内存则对稳定性以及内存纠错功能要求严格,同样稳定性也是着重强调的。

台式机内存
  笔记本内存就是应用于笔记本电脑的内存产品,笔记本内存只是使用的环境与台式机内存不同,在工作原理方面并没有什么区别。只是因为笔记本电脑对内存的稳定性、体积、散热性方面的需求,笔记本内存在这几方面要优于台式机内存,价格方面也要高于台式机内存。

笔记本内存
  笔记本诞生于台式机的486年代,在那个时代的笔记本电脑,所采用的内存各不相同,各种品牌的机型使用的内存千奇百怪,甚至同一机型的不同批次也有不同的内存,规格极其复杂,有的机器甚至使用PCMICA闪存卡来做内存。进入到台式机的586时代,笔记本厂商开始推广72针的SO DIMM标准笔记本内存,而市场上还同时存在着多种规格的笔记本内存,诸如:72针5伏的FPM;72针5伏的EDO;72针3.3伏的FPM;72针3.3伏的EDO。此几种类型的笔记本内存都已成为“古董”级的宝贝,早已在市场内消失了。在进入到“奔腾”时代,144针的3.3伏的EDO标准笔记本内存。在往后随着台式机内存中SDRAM的普及,笔记本内存也出现了144针的SDRAM。现在DDR的笔记本内存也在市面中较为普遍了,而在一些轻薄笔记本内,还有些机型使用与普通机型不同的Micro DIMM接口内存。
  对于多数的笔记本电脑都并没有配备单独的显存,而是采用内存共享的形式,内存要同时负担内存和显存的存储作用,因此内存对于笔记本电脑性能的影响很大。

服务器内存
  服务器是企业信息系统的核心,因此对内存的可靠性非常敏感。服务器上运行着企业的关键业务,内存错误可能造成服务器错误并使数据永久丢失。因此服务器内存在可靠性方面的要求很高,所以服务器内存大多都带有Buffer(缓存器),Register(寄存器),ECC(错误纠正代码),以保证把错误发生可能性降到最低。服务器内存具有普通PC内存所不具备的高性能、高兼容性和高可靠性。
主频
  内存主频和CPU主频一样,习惯上被用来表示内存的速度,它代表着该内存所能达到的最高工作频率。内存主频是以MHz(兆赫)为单位来计量的。内存主频越高在一定程度上代表着内存所能达到的速度越快。内存主频决定着该内存最高能在什么样的频率正常工作。目前市面上已推出的内存产品中最高能达到560MHz的主频,而较为主流的是333MHz和400MHz的DDR内存。
  大家知道,计算机系统的时钟速度是以频率来衡量的。晶体振荡器控制着时钟速度,在石英晶片上加上电压,其就以正弦波的形式震动起来,这一震动可以通过晶片的形变和大小记录下来。晶体的震动以正弦调和变化的电流的形式表现出来,这一变化的电流就是时钟信号。而内存本身并不具备晶体振荡器,因此内存工作时的时钟信号是由主板芯片组的北桥或直接由主板的时钟发生器提供的,也就是说内存无法决定自身的工作频率,其实际工作频率是由主板来决定的。
  一般情况下内存的工作频率是和主板的外频相一致的,通过主板的调节CPU的外频也就调整了内存的实际工作频率。内存工作时有两种工作模式,一种是同步工作模式,此模式下内存的实际工作频率与CPU外频一致,这是大部分主板所采用的默认内存工作模式。另外一种是异步工作模式,这样允许内存的工作频率与CPU外频可存在一定差异,它可以让内存工作在高出或低于系统总线速度33MHz,又或者让内存和外频以3:4、4:5等,定比例的频率上。利用异步工作模式技术就可以避免以往超频而导致的内存瓶颈问题。
  举个例子:一块845E的主板最大只能支持DDR266内存,其主频是266MHz,这是DDR内存的等效频率,其实际工作频率是133MHz。在正常情况下(不进行超频),该主板上内存工作频率最高可以设置到DDR266的模式。但如果主板支持内存异步功能,那么就可以采用内存、外频频率以5:4的比例模式下工作,这样内存的工作频率就可以达到166MHz,此时主板就可以支持DDR333(等效频率333MHz,实际频率166MHz)了。
  目前的主板芯片组几乎都支持内存异步,英特尔公司从810系列到目前较新的875系列都支持,而威盛公司则从693芯片组以后全部都提供了此功能。
传输类型
  传输类型指内存所采用的内存类型,不同类型的内存传输类型各有差异,在传输率、工作频率、工作方式、工作电压等方面都有不同。目前市场中主要有的内存类型有SDRAM、DDR SDRAM和RDRAM三种,其中DDR SDRAM内存占据了市场的主流,而SDRAM内存规格已不再发展,处于被淘汰的行列。RDRAM则始终未成为市场的主流,只有部分芯片组支持,而这些芯片组也逐渐退出了市场,RDRAM前景并不被看好。

SDRAM



DDR


RDRAM



DDR2

接口类型
  接口类型是根据内存条金手指上导电触片的数量来划分的,金手指上的导电触片也习惯称为针脚数(Pin)。因为不同的内存采用的接口类型各不相同,而每种接口类型所采用的针脚数各不相同。笔记本内存一般采用144Pin、200Pin接口;台式机内存则基本使用168Pin和184Pin接口。对应于内存所采用的不同的针脚数,内存插槽类型也各不相同。目前台式机系统主要有SIMM、DIMM和RIMM三种类型的内存插槽,而笔记本内存插槽则是在SIMM和DIMM插槽基础上发展而来,基本原理并没有变化,只是在针脚数上略有改变。
金手指
  金手指(connecting finger)是内存条上与内存插槽之间的连接部件,所有的信号都是通过金手指进行传送的。金手指由众多金黄色的导电触片组成,因其表面镀金而且导电触片排列如手指状,所以称为“金手指”。金手指实际上是在覆铜板上通过特殊工艺再覆上一层金,因为金的抗氧化性极强,而且传导性也很强。不过因为金昂贵的价格,目前较多的内存都采用镀锡来代替,从上个世纪90年代开始锡材料就开始普及,目前主板、内存和显卡等设备的“金手指”几乎都是采用的锡材料,只有部分高性能服务器/工作站的配件接触点才会继续采用镀金的做法,价格自然不菲。

内存金手指
  内存处理单元的所有数据流、电子流正是通过金手指与内存插槽的接触与PC系统进行交换,是内存的输出输入端口,因此其制作工艺对于内存连接显得相当重要。
内存插槽
  最初的计算机系统通过单独的芯片安装内存,那时内存芯片都采用DIP(Dual ln-line Package,双列直插式封装)封装,DIP芯片是通过安装在插在总线插槽里的内存卡与系统连接,此时还没有正式的内存插槽。DIP芯片有个最大的问题就在于安装起来很麻烦,而且随着时间的增加,由于系统温度的反复变化,它会逐渐从插槽里偏移出来。随着每日频繁的计算机启动和关闭,芯片不断被加热和冷却,慢慢地芯片会偏离出插槽。最终导致接触不好,产生内存错误。
  早期还有另外一种方法是把内存芯片直接焊接在主板或扩展卡里,这样有效避免了DIP芯片偏离的问题,但无法再对内存容量进行扩展,而且如果一个芯片发生损坏,整个系统都将不能使用,只能重新焊接一个芯片或更换包含坏芯片的主板,此种方法付出的代价较大,也极为不方便。
  对于内存存储器,大多数现代的系统都已采用单内联内存模块(Single Inline Memory Module,SIMM)或双内联内存模块(Dual Inline Memory,DIMM)来替代单个内存芯片。这些小板卡插入到主板或内存卡上的特殊连接器里。

SIMM


DIMM


RIMM

容量
内存容量是指该内存条的存储容量,是内存条的关键性参数。内存容量以MB作为单位,可以简写为M。内存的容量一般都是2的整次方倍,比如64MB、128MB、256MB等,一般而言,内存容量越大越有利于系统的运行。目前台式机中主流采用的内存容量为256MB或512MB,64MB、128MB的内存已较少采用。
系统对内存的识别是以Byte(字节)为单位,每个字节由8位二进制数组成,即8bit(比特,也称“位”)。按照计算机的二进制方式,1Byte=8bit;1KB=1024Byte;1MB=1024KB;1GB=1024MB;1TB=1024GB。
系统中内存的数量等于插在主板内存插槽上所有内存条容量的总和,内存容量的上限一般由主板芯片组和内存插槽决定。不同主板芯片组可以支持的容量不同,比如Inlel的810和815系列芯片组最高支持512MB内存,多余的部分无法识别。目前多数芯片组可以支持到2GB以上的内存。此外主板内存插槽的数量也会对内存容量造成限制,比如使用128MB一条的内存,主板由两个内存插槽,最高可以使用256MB内存。因此在选择内存时要考虑主板内存插槽数量,并且可能需要考虑将来有升级的余地。
内存电压
  内存正常工作所需要的电压值,不同类型的内存电压也不同,但各自均有自己的规格,超出其规格,容易造成内存损坏。SDRAM内存一般工作电压都在3.3伏左右,上下浮动额度不超过0.3伏;DDR SDRAM内存一般工作电压都在2.5伏左右,上下浮动额度不超过0.2伏;而DDR2 SDRAM内存的工作电压一般在1.8V左右。具体到每种品牌、每种型号的内存,则要看厂家了,但都会遵循SDRAM内存3.3伏、DDR SDRAM内存2.5伏、DDR2 SDRAM内存1.8伏的基本要求,在允许的范围内浮动。
颗粒封装
  颗粒封装其实就是内存芯片所采用的封装技术类型,封装就是将内存芯片包裹起来,以避免芯片与外界接触,防止外界对芯片的损害。空气中的杂质和不良气体,乃至水蒸气都会腐蚀芯片上的精密电路,进而造成电学性能下降。不同的封装技术在制造工序和工艺方面差异很大,封装后对内存芯片自身性能的发挥也起到至关重要的作用。
  随着光电、微电制造工艺技术的飞速发展,电子产品始终在朝着更小、更轻、更便宜的方向发展,因此芯片元件的封装形式也不断得到改进。芯片的封装技术多种多样,有DIP、POFP、TSOP、BGA、QFP、CSP等等,种类不下三十种,经历了从DIP、TSOP到BGA的发展历程。芯片的封装技术已经历了几代的变革,性能日益先进,芯片面积与封装面积之比越来越接近,适用频率越来越高,耐温性能越来越好,以及引脚数增多,引脚间距减小,重量减小,可靠性提高,使用更加方便。

DIP封装



TSOP封装


BGA封装



CSP封装

传输标准
  内存是计算机内部最为关键的部件之一,其有很严格的制造要求。而其中的传输标准则代表着对内存速度方面的标准。不同类型的内存,无论是SDRAM、DDR SDRAM,还是RDRAM都有不同的规格,每种规格的内存在速度上是各不相同的。传输标准是内存的规范,只有完全符合该规范才能说该内存采用了此传输标准。比如说传输标准PC3200内存,代表着此内存为工作频率200MHz,等效频率为400MHz的DDR内存,也就是常说的DDR400。
  传输标准术购买内存的首要选择条件之一,它代表着该内存的速度。目前市场中所有的内存传输标准有SDRAM的PC100、PC133;DDR SDRAM的PC1600、PC2100、PC2700、PC3200、PC3500、PC3700;RDRAM的PC600、PC800和PC1066等。

SDRAM传输标准



DDR传输标准


DDR2传输标准



RDRAM传输标准

CL设置
  内存负责向CPU提供运算所需的原始数据,而目前CPU运行速度超过内存数据传输速度很多,因此很多情况下CPU都需要等待内存提供数据,这就是常说的“CPU等待时间”。内存传输速度越慢,CPU等待时间就会越长,系统整体性能受到的影响就越大。因此,快速的内存是有效提升CPU效率和整机性能的关键之一。
  在实际工作时,无论什么类型的内存,在数据被传输之前,传送方必须花费一定时间去等待传输请求的响应,通俗点说就是传输前传输双方必须要进行必要的通信,而这种就会造成传输的一定延迟时间。CL设置一定程度上反映出了该内存在CPU接到读取内存数据的指令后,到正式开始读取数据所需的等待时间。不难看出同频率的内存,CL设置低的更具有速度优势。
  上面只是给大家建立一个基本的CL概念,而实际上内存延迟的基本因素绝对不止这些。内存延迟时间有个专门的术语叫“Latency”。要形象的了解延迟,我们不妨把内存当成一个存储着数据的数组,或者一个EXCEL表格,要确定每个数据的位置,每个数据都是以行和列编排序号来标示,在确定了行、列序号之后该数据就唯一了。内存工作时,在要读取或写入某数据,内存控制芯片会先把数据的列地址传送过去,这个RAS信号(Row Address Strobe,行地址信号)就被激活,而在转化到行数据前,需要经过几个执行周期,然后接下来CAS信号(Column Address Strobe,列地址信号)被激活。在RAS信号和CAS信号之间的几个执行周期就是RAS-to-CAS延迟时间。在CAS信号被执行之后同样也需要几个执行周期。此执行周期在使用标准PC133的SDRAM大约是2到3个周期;而DDR RAM则是4到5个周期。在DDR中,真正的CAS延迟时间则是2到2.5个执行周期。RAS-to-CAS的时间则视技术而定,大约是5到7个周期,这也是延迟的基本因素。
  CL设置较低的内存具备更高的优势,这可以从总的延迟时间来表现。内存总的延迟时间有一个计算公式,总延迟时间=系统时钟周期×CL模式数+存取时间(tAC)。首先来了解一下存取时间(tAC)的概念,tAC是Access Time from CLK的缩写,是指最大CAS延迟时的最大数输入时钟,是以纳秒为单位的,与内存时钟周期是完全不同的概念,虽然都是以纳秒为单位。存取时间(tAC)代表着读取、写入的时间,而时钟频率则代表内存的速度。
  举个例子来计算一下总延迟时间,比如一条DDR333内存其存取时间为6ns,其内存时钟周期为6ns(DDR内存时钟周期=1X2/内存频率,DDR333内存频率为333,则可计算出其时钟周期为6ns)。我们在主板的BIOS中将其CL设置为2.5,则总的延迟时间=6ns X2.5+6ns=21ns,而如果CL设置为2,那么总的延迟时间=6ns X2+6ns=18 ns,就减少了3ns的时间。
  从总的延迟时间来看,CL值的大小起到了很关键的作用。所以对系统要求高和喜欢超频的用户通常喜欢购买CL值较低的内存。目前各内存颗粒厂商除了从提高内存时钟频率来提高DDR的性能之外,已经考虑通过更进一步的降低CAS延迟时间来提高内存性能。不同类型内存的典型CL值并不相同,例如目前典型DDR的CL值为2.5或者2,而大部分DDR2 533的延迟参数都是4或者5,少量高端DDR2的CL值可以达到3。
  不过,并不是说CL值越低性能就越好,因为其它的因素会影响这个数据。例如,新一代处理器的高速缓存较有效率,这表示处理器比较少地直接从内存读取数据。再者,列的数据会比较常被存取,所以RAS-to-CAS的发生几率也大,读取的时间也会增多。最后,有时会发生同时读取大量数据的情形,在这种情形下,相邻的内存数据会一次被读取出来,CAS延迟时间只会发生一次。
  选择购买内存时,最好选择同样CL设置的内存,因为不同速度的内存混插在系统内,系统会以较慢的速度来运行,也就是当CL2.5和CL2的内存同时插在主机内,系统会自动让两条内存都工作在CL2.5状态,造成资源浪费。
ECC校验
  ECC内存即纠错内存,简单的说,其具有发现错误,纠正错误的功能,一般多应用在高档台式电脑/服务器及图形工作站上,这将使整个电脑系统在工作时更趋于安全稳定。
  内存是一种电子器件,在其工作过程中难免会出现错误,而对于稳定性要求高的用户来说,内存错误可能会引起致命性的问题。内存错误根据其原因还可分为硬错误和软错误。硬件错误是由于硬件的损害或缺陷造成的,因此数据总是不正确,此类错误是无法纠正的;软错误是随机出现的,例如在内存附近突然出现电子干扰等因素都可能造成内存软错误的发生。
  为了能检测和纠正内存软错误,首先出现的是内存“奇偶校验”。内存中最小的单位是比特,也称为“位”,位有只有两种状态分别以1和0来标示,每8个连续的比特叫做一个字节(byte)。不带奇偶校验的内存每个字节只有8位,如果其某一位存储了错误的值,就会导致其存储的相应数据发生变化,进而导致应用程序发生错误。而奇偶校验就是在每一字节(8位)之外又增加了一位作为错误检测位。在某字节中存储数据之后,在其8个位上存储的数据是固定的,因为位只能有两种状态1或0,假设存储的数据用位标示为1、1、1、0、0、1、0、1,那么把每个位相加(1+1+1+0+0+1+0+1=5),结果是奇数。对于偶校验,校验位就定义为1,反之则为0;对于奇校验,则相反。当CPU读取存储的数据时,它会再次把前8位中存储的数据相加,计算结果是否与校验位相一致。从而一定程度上能检测出内存错误,奇偶校验只能检测出错误而无法对其进行修正,同时虽然双位同时发生错误的概率相当低,但奇偶校验却无法检测出双位错误。
  ECC(Error Checking and Correcting,错误检查和纠正)内存,它同样也是在数据位上额外的位存储一个用数据加密的代码。当数据被写入内存,相应的ECC代码与此同时也被保存下来。当重新读回刚才存储的数据时,保存下来的ECC代码就会和读数据时产生的ECC代码做比较。如果两个代码不相同,他们则会被解码,以确定数据中的那一位是不正确的。然后这一错误位会被抛弃,内存控制器则会释放出正确的数据。被纠正的数据很少会被放回内存。假如相同的错误数据再次被读出,则纠正过程再次被执行。重写数据会增加处理过程的开销,这样则会导致系统性能的明显降低。如果是随机事件而非内存的缺点产生的错误,则这一内存地址的错误数据会被再次写入的其他数据所取代。
  使用ECC校验的内存,会对系统的性能造成不小的影响,不过这种纠错对服务器等应用而言是十分重要的,带ECC校验的内存价格比普通内存要昂贵许多。
DDR2
DDR2的定义:
  DDR2(Double Data Rate 2) SDRAM是由JEDEC(电子设备工程联合委员会)进行开发的新生代内存技术标准,它与上一代DDR内存技术标准最大的不同就是,虽然同是采用了在时钟的上升/下降延同时进行数据传输的基本方式,但DDR2内存却拥有两倍于上一代DDR内存预读取能力(即:4bit数据读预取)。换句话说,DDR2内存每个时钟能够以4倍外部总线的速度读/写数据,并且能够以内部控制总线4倍的速度运行。

DDR2内存的频率
  此外,由于DDR2标准规定所有DDR2内存均采用FBGA封装形式,而不同于目前广泛应用的TSOP/TSOP-II封装形式,FBGA封装可以提供了更为良好的电气性能与散热性,为DDR2内存的稳定工作与未来频率的发展提供了坚实的基础。回想起DDR的发展历程,从第一代应用到个人电脑的DDR200经过DDR266、DDR333到今天的双通道DDR400技术,第一代DDR的发展也走到了技术的极限,已经很难通过常规办法提高内存的工作速度;随着Intel最新处理器技术的发展,前端总线对内存带宽的要求是越来越高,拥有更高更稳定运行频率的DDR2内存将是大势所趋。

DDR2与DDR的区别:
  在了解DDR2内存诸多新技术前,先让我们看一组DDR和DDR2技术对比的数据。

1、延迟问题:
  从上表可以看出,在同等核心频率下,DDR2的实际工作频率是DDR的两倍。这得益于DDR2内存拥有两倍于标准DDR内存的4BIT预读取能力。换句话说,虽然DDR2和DDR一样,都采用了在时钟的上升延和下降延同时进行数据传输的基本方式,但DDR2拥有两倍于DDR的预读取系统命令数据的能力。也就是说,在同样100MHz的工作频率下,DDR的实际频率为200MHz,而DDR2则可以达到400MHz。
  这样也就出现了另一个问题:在同等工作频率的DDR和DDR2内存中,后者的内存延时要慢于前者。举例来说,DDR 200和DDR2-400具有相同的延迟,而后者具有高一倍的带宽。实际上,DDR2-400和DDR 400具有相同的带宽,它们都是3.2GB/s,但是DDR400的核心工作频率是200MHz,而DDR2-400的核心工作频率是100MHz,也就是说DDR2-400的延迟要高于DDR400。
2、封装和发热量:
  
  DDR2内存技术最大的突破点其实不在于用户们所认为的两倍于DDR的传输能力,而是在采用更低发热量、更低功耗的情况下,DDR2可以获得更快的频率提升,突破标准DDR的400MHZ限制。
  DDR内存通常采用TSOP芯片封装形式,这种封装形式可以很好的工作在200MHz上,当频率更高时,它过长的管脚就会产生很高的阻抗和寄生电容,这会影响它的稳定性和频率提升的难度。这也就是DDR的核心频率很难突破275MHZ的原因。而DDR2内存均采用FBGA封装形式。不同于目前广泛应用的TSOP封装形式,FBGA封装提供了更好的电气性能与散热性,为DDR2内存的稳定工作与未来频率的发展提供了良好的保障。
  DDR2内存采用1.8V电压,相对于DDR标准的2.5V,降低了不少,从而提供了明显的更小的功耗与更小的发热量,这一点的变化是意义重大的。
DDR2采用的新技术:
  除了以上所说的区别外,DDR2还引入了三项新的技术,它们是OCD、ODT和Post CAS
  OCD(Off-Chip Driver):也就是所谓的离线驱动调整,DDR II通过OCD可以提高信号的完整性。DDR II通过调整上拉(pull-up)/下拉(pull-down)的电阻值使两者电压相等。使用OCD通过减少DQ-DQS的倾斜来提高信号的完整性;通过控制电压来提高信号品质。
  ODT:ODT是内建核心的终结电阻器。我们知道使用DDR SDRAM的主板上面为了防止数据线终端反射信号需要大量的终结电阻。它大大增加了主板的制造成本。实际上,不同的内存模组对终结电路的要求是不一样的,终结电阻的大小决定了数据线的信号比和反射率,终结电阻小则数据线信号反射低但是信噪比也较低;终结电阻高,则数据线的信噪比高,但是信号反射也会增加。因此主板上的终结电阻并不能非常好的匹配内存模组,还会在一定程度上影响信号品质。DDR2可以根据自已的特点内建合适的终结电阻,这样可以保证最佳的信号波形。使用DDR2不但可以降低主板成本,还得到了最佳的信号品质,这是DDR不能比拟的。
  Post CAS:它是为了提高DDR II内存的利用效率而设定的。在Post CAS操作中,CAS信号(读写/命令)能够被插到RAS信号后面的一个时钟周期,CAS命令可以在附加延迟(Additive Latency)后面保持有效。原来的tRCD(RAS到CAS和延迟)被AL(Additive Latency)所取代,AL可以在0,1,2,3,4中进行设置。由于CAS信号放在了RAS信号后面一个时钟周期,因此ACT和CAS信号永远也不会产生碰撞冲突。
  总的来说,DDR2采用了诸多的新技术,改善了DDR的诸多不足,虽然它目前有成本高、延迟慢能诸多不足,但相信随着技术的不断提高和完善,这些问题终将得到解决。