海钓鱼竿:显卡知识大课堂之 显卡相关术语解析汇总

来源:百度文库 编辑:中财网 时间:2024/05/04 18:56:10

显卡知识大课堂之 显卡相关术语解析汇总

来源:天极网硬件频道 作者:小菜一碟 责任编辑:林锦伟·yesky 发表时间:2010-11-30 14:00 评论(1)绝对不能错过!戴尔电脑暑期特卖 800-858-2698 400-886-6435 DIY硬件 评测 显卡 显卡术语

  前言:显卡知识大课堂之 显卡相关术语解析汇总

  显卡——

  显卡全称显示接口卡(Video card,Graphics card),又称为显示适配器(Video adapter),显示器配置卡简称为显卡,是个人电脑最基本组成部分之一。显卡的用途是将计算机系统所需要的显示信息进行转换驱动,并向显示器提供行扫描信号,控制显示器的正确显示,是连接显示器和个人电脑主板的重要元件,是“人机对话”的重要设备之一。显卡作为电脑主机里的一个重要组成部分,承担输出显示图形的任务。

  显卡工作原理

  数据(data) 一旦离开CPU,必须通过4个步骤,最后才会到达显示屏:

  1、从总线(bus)进入GPU (Graphics Processing Unit,图形处理器)将CPU送来的数据送到北桥(主桥)再送到GPU(图形处理器)里面进行处理。

  2、从 video chipset(显卡芯片组)进入video RAM(显存)将芯片处理完的数据送到显存。

  3、从显存进入Digital Analog Converter (= RAM DAC,随机读写存储模—数转换器),将显示显存读取出数据再送到RAM DAC进行数据转换的工作(数字信号转模拟信号)。

  4、从 DAC 进入显示器 (Monitor)将转换完的模拟信号送到显示屏。

  显示效能是系统效能的一部份,其效能的高低由以上四步所决定,它与显示卡的效能(video performance) 不太一样,如要严格区分,显示卡的效能应该受中间两步所决定,因为这两步的资料传输都是在显示卡的内部。第一步是由 CPU(运算器和控制器一起组成的计算机的核心,称为微处理器或中央处理器)进入到显示卡里面,最后一步是由显示卡直接送资料到显示屏上。

  显卡基本结构

  显卡主要由显示芯片(GPU)、显存、PCB板(包括供电及其他集成电路元件)、显卡BIOS组成。

  集成显卡

  集成显卡是将显示芯片、显存及其相关电路都做在主板上,与主板融为一体;集成显卡的显示芯片有单独的,但大部分都集成在主板的北桥芯片中;一些主板集成的显卡也在主板上单独安装了显存,但其容量较小,集成显卡的显示效果与处理性能相对较弱,不能对显卡进行硬件升级,但可以通过CMOS调节频率或刷入新BIOS文件实现软件升级来挖掘显示芯片的潜能。

  独立显卡

  独立显卡是指将显示芯片、显存及其相关电路单独做在一块电路板上,自成一体而作为一块独立的板卡存在,它需占用主板的扩展插槽(ISA、PCI、AGP或PCI-E)。

  Tips:如何查看显卡参数?

  通过业界通用的GPU-Z软件,我们可以直观的看到显卡的一些主要的规格参数:
  GPU-Z下载地址:http://www.techpowerup.com/gpuz/

  通过上图对比我们可以发现主要的显卡规格参数有很多,其实重要的就只有其中几个,大家针对这几个重要参数进行显卡的全面认识(可以参照《识别显卡教程》),其他的非重点参数我们简单了解就行了。

GPU

  英文全称Graphic Processing Unit,中文翻译为“图形处理器”。GPU是相对于CPU的一个概念,由于在现代的计算机中(特别是家用系统,游戏的发烧友)图形的处理变得越来越重要,需要一个专门的图形的核心处理器。

  GPU其实就是拿来处理图形的显卡的中央处理器(CPU),我们知道电脑的性能很大程度取决于CPU,当然显卡的性能也是同样道理,CPU有双核乃至四核、六核的概念,而显卡方面一般非专业显卡最多是双核心的版本,当然核心越多性能越强劲,功耗也越大。 

  显示芯片

  显示芯片是显卡的核心芯片,它的性能好坏直接决定了显卡性能的好坏,它的主要任务就是处理系统输入的视频信息并将其进行构建、渲染等工作。显示主芯片的性能直接决定了显示卡性能的高低。不同的显示芯片,不论从内部结构还是其性能,都存在着差异,而其价格差别也很大。显示芯片在显卡中的地位,就相当于电脑中CPU的地位,是整个显卡的核心。因为显示芯片的复杂性,目前设计、制造显示芯片的厂家只有NVIDIA、ATI、SIS、3DLabs等公司。家用娱乐性显卡都采用单芯片设计的显示芯片,而在部分专业的工作站显卡上有采用多个显示芯片组合的方式。  核心频率

  显卡的核心频率是指显示核心的工作频率,其工作频率在一定程度上可以反映出显示核心的性能。

  核心频率就像CPU的主频一样,但并不是越高就越好,比如奔四就比酷睿i3的要高,但实际性能差很多。另外显卡的性能是由核心频率、显存、像素管线、像素填充率等等多方面的情况所决定的,因此在显示核心不同的情况下,核心频率高并不代表此显卡性能强劲。

  在同样级别的芯片中,核心频率高的则性能要强一些,提高核心频率就是显卡超频的方法之一。显示芯片主流的只有ATI和NVIDIA两家,两家都提供显示核心给第三方的厂商,在同样的显示核心下,部分厂商会适当提高其产品的显示核心频率,使其工作在高于显示核心固定的频率上以达到更高的性能。 

  核心位宽

  显示芯片位宽是指显示芯片内部数据总线的位宽,也就是显示芯片内部所采用的数据传输位数,目前主流的显示芯片基本都采用了256位的位宽,采用更大的位宽意味着在数据传输速度不变的情况,瞬间所能传输的数据量越大。就好比是不同口径的阀门,在水流速度一定的情况下,口径大的能提供更大的出水量。显示芯片位宽就是显示芯片内部总线的带宽,带宽越大,可以提供的计算能力和数据吞吐能力也越快,是决定显示芯片级别的重要数据之一。

  显示芯片位宽增加并不代表该芯片性能更强,因为显示芯片集成度相当高,设计、制造都需要很高的技术能力,单纯的强调显示芯片位宽并没有多大意义,只有在其它部件、芯片设计、制造工艺等方面都完全配合的情况下,显示芯片位宽的作用才能得到体现。 

  流处理器(SP单元)

  SP(Stream Processor,流处理器)单元是NVIDIA对其统一架构GPU内通用标量着色器的称谓。SP单元是全新的全能渲染单元,由以前的顶点着色器和像素着色器结合而成的新一代显卡核心架构,是继Pixel Pipelines(像素管线)和Vertex Pipelines(顶点管线)之后新一代的显卡渲染技术指标。SP单元既可以完成VS(Vertex Shader,顶点着色器)运算,也可以完成PS(Pixel Shader,像素着色器)运算,而且可以根据需要组成任意VS/PS比例,从而给开发者更广阔的发挥空间。简而言之,过去按照固定的比例组成的渲染管线/顶点单元渲染模式如今被SP单元组成的任意比例渲染管线/顶点单元渲染模式替代。

  SP单元是组成渲染管线的一部分,一条完整的渲染管线包括流处理器和纹理贴图处理器。这是DirectX 10引入的新概念统一渲染架构(DirectX 10在XP上还不能装,但是一些软件有这功能)。采用统一渲染架构能有效而充分的利用显卡闲置资源,不再需要上一代显卡依靠渲染管线执行命令排队并逐个执行。Nvidia GeForce 8800GTX是世界上第一块支持DirectX 10的PC桌面显卡,核心代号G80,同时也是结束显卡管线概念的第一块线卡,引入新的SP单元的概念,是显卡发展史上一次重大的革新。

  SP单元直接影响处理能力,因为SP单元是显卡的核心,也可称作大脑。SP单元个数越多则处理能力越强,一般成正比关系,但这仅限于NVIDIA自家的核心或者AMD自家的核心比较范畴。NVIDIA和AMD的SP单元比较可采取近似比较,即NVIDIA的1个SP单元相当于AMD的4个SP单元(随着发展可能会有所不同)。

  流处理器直接将多媒体的图形数据流映射到流处理器上进行处理,有可编程和不可编程两种。世面上年公布的名为Cheops中的流处理器,是针对某一个特定的视频处理功能而设计的一种不可编程的流处理器。但为了得到一定的灵活性,系统中也包含一个通用的可编程处理器。从1996年到2001年,MIT和Standford针对图像处理的应用,研制了名为Imagine的可编程流处理器。Imagine流处理器没有采用Cache,而是采用一个SRF(Stream Register File,流寄存器文件),作为流(主)存储器与处理器寄存器之间的缓冲存储器,来解决存储器带宽问题的。流存储器与SRF之间的带宽是2GB/s,SRF与处理器寄存器之间的带宽是32GB/s,ALU Cluster(ALU簇)内寄存器与ALU之间的带宽是544GB/s,三种带宽的比例关系为1:16:272。   显存

  显存全称显卡内存,和我们计算机里的内存功能基本相同。其主要功能是用于负责存储显示芯片所处理的各种数据,其容量越大贴图精度也会越高,因而从某种意义上来讲显存增大性能也会得到显著提升。

  显存,也被叫做帧缓存,它的作用是用来存储显卡芯片处理过或者即将提取的渲染数据。如同计算机的内存一样,显存是用来存储要处理的图形信息的部件。我们在显示屏上看到的画面是由一个个的像素点构成的,而每个像素点都以4至32甚至64位的数据来控制它的亮度和色彩,这些数据必须通过显存来保存,再交由显示芯片和CPU调配,最后把运算结果转化为图形输出到显示器上。显存和主板内存一样,执行存贮的功能,但它存贮的对像是显卡输出到显示器上的每个像素的信息。显存是显卡非常重要的组成部分,显示芯片处理完数据后会将数据保存到显存中,然后由RAMDAC(数模转换器)从显存中读取出数据并将数字信号转换为模拟信号,最后由屏幕显示出来。 

 显存类型

  显存是主板上显卡上的关键核心部件之一,它的优劣和容量大小会直接关系到显卡的最终性能表现。可以说显示芯片决定了显卡所能提供的功能和其基本性能,而显卡性能的发挥则很大程度上取决于显存。无论显示芯片的性能如何出众,最终其性能都要通过配套的显存来发挥。

  从早期的EDORAM、MDRAM、SDRAM、SGRAM、VRAM、DDR3等到今天广泛采用的GDDR5显存经历了很多代的进步,越新的显存类型意味着更新的制造工艺。   

  显存容量

  显存容量是显卡上本地显存的容量数,这是选择显卡的关键参数之一。显存容量的大小决定着显存临时存储数据的能力,在一定程度上也会影响显卡的性能。显存容量也是随着显卡的发展而逐步增大的,并且有越来越增大的趋势。显存容量从早期的512KB、1MB、2MB等极小容量,发展到8MB、12MB、16MB、32MB、64MB,一直到目前主流的128MB、256MB、512MB和高档显卡的1GB,某些专业显卡甚至已经具有8GB甚至更大的显存了。

  值得注意的是,显存容量越大并不一定意味着显卡的性能就越高,因为决定显卡性能的三要素首先是其所采用的显示芯片,其次是显存带宽(这取决于显存位宽和显存频率),最后才是显存容量。一款显卡究竟应该配备多大的显存容量才合适是由其所采用的显示芯片所决定的,也就是说显存容量应该与显示核心的性能相匹配才合理,显示芯片性能越高由于其处理能力越高所配备的显存容量相应也应该越大,而低性能的显示芯片配备大容量显存对其性能是没有任何帮助的。 

  显存频率

  显存频率是指默认情况下,该显存在显卡上工作时的频率,以MHz(兆赫兹)为单位。显存频率一定程度上反应着该显存的速度。显存频率随着显存的类型、性能的不同而不同,SDRAM显存一般都工作在较低的频率上,一般就是133MHz和166MHz,此种频率早已无法满足现在显卡的需求。DDR SDRAM显存则能提供较高的显存频率,主要在中低端显卡上使用,DDR2显存由于成本高并且性能一般,因此使用量不大。GDDR5显存是目前高端显卡采用最为广泛的显存类型。不同显存能提供的显存频率也差异很大,主要有400MHz、500MHz、600MHz、650MHz等,高端产品中还有800MHz、1200MHz、1600MHz,甚至更高。

  显存频率与显存时钟周期是相关的,二者成倒数关系,也就是显存频率=1/显存时钟周期。如果是SDRAM显存,其时钟周期为6ns,那么它的显存频率就为1/6ns=166 MHz。而对于DDR SDRAM或者DDR2、DDR3,其时钟周期为6ns,那么它的显存频率就为1/6ns=166 MHz,但要了解的是这是DDR SDRAM的实际频率,而不是我们平时所说的DDR显存频率。因为DDR在时钟上升期和下降期都进行数据传输,其一个周期传输两次数据,相当于SDRAM频率的二倍。习惯上称呼的DDR频率是其等效频率,是在其实际工作频率上乘以2,就得到了等效频率。因此6ns的DDR显存,其显存频率为1/6ns*2=333 MHz。

   但要明白的是显卡制造时,厂商设定了显存实际工作频率,而实际工作频率不一定等于显存最大频率。此类情况现在较为常见,如显存最大能工作在650 MHz,而制造时显卡工作频率被设定为550 MHz,此时显存就存在一定的超频空间。这也就是目前厂商惯用的方法,显卡以超频为卖点。此外,用于显卡的显存,虽然和主板用的内存同样叫DDR、DDR2甚至DDR3,但是由于规范参数差异较大,不能通用,因此也可以称显存为GDDR、GDDR2、GDDR3。 

  显存位宽

  显存位宽是显存在一个时钟周期内所能传送数据的位数,位数越大则瞬间所能传输的数据量越大,这是显存的重要参数之一。目前市场上的显存位宽有64位、128位和256位三种,人们习惯上叫的64位显卡、128位显卡和256位显卡就是指其相应的显存位宽。显存位宽越高,性能越好价格也就越高,因此256位宽的显存更多应用于高端显卡,而主流显卡基本都采用128位显存。

  大家知道显存带宽=显存频率X显存位宽/8,那么在显存频率相当的情况下,显存位宽将决定显存带宽的大小。比如说同样显存频率为500MHz的128位和256位显存,那么它俩的显存带宽将分别为:128位=500MHz*128∕8=8GB/s,而256位=500MHz*256∕8=16GB/s,是128位的2倍,可见显存位宽在显存数据中的重要性。

  显卡的显存是由一块块的显存芯片构成的,显存总位宽同样也是由显存颗粒的位宽组成,。显存位宽=显存颗粒位宽×显存颗粒数。显存颗粒上都带有相关厂家的内存编号,可以去网上查找其编号,就能了解其位宽,再乘以显存颗粒数,就能得到显卡的位宽。这是最为准确的方法,但施行起来较为麻烦。 

  显存带宽

  显存带宽是指显示芯片与显存之间的数据传输速率,它以字节/秒为单位。显存带宽是决定显卡性能和速度最重要的因素之一。要得到精细(高分辨率)、色彩逼真(32位真彩)、流畅(高刷新速度)的3D画面,就必须要求显卡具有大显存带宽。目前显示芯片的性能已达到很高的程度,其处理能力是很强的,只有大显存带宽才能保障其足够的数据输入和输出。随着多媒体、3D游戏对硬件的要求越来越高,在高分辨率、32位真彩和高刷新率的3D画面面前,相对于GPU,较低的显存带宽已经成为制约显卡性能的瓶颈。显存带宽是目前决定显卡图形性能和速度的重要因素之一。

  显存带宽的计算公式为:显存带宽=工作频率×显存位宽/8。目前大多中低端的显卡都能提供6.4GB/s、8.0GB/s的显存带宽,而对于高端的显卡产品则提供超过20GB/s的显存带宽。在条件允许的情况下,尽可能购买显存带宽大的显卡,这是一个选择的关键。 

  显存封装

  显存封装是指显存颗粒所采用的封装技术类型,封装就是将显存芯片包裹起来,以避免芯片与外界接触,防止外界对芯片的损害。空气中的杂质和不良气体,乃至水蒸气都会腐蚀芯片上的精密电路,进而造成电学性能下降。

  不同的封装技术在制造工序和工艺方面差异很大,封装后对内存芯片自身性能的发挥也起到至关重要的作用。显存封装形式主要有QFP、TSOP-II、MBGA等,其中TSOP-II、MBGA比较常见。早期的SDRAM和DDR显存很多使用TSOP-II,而现在随着显存速度的提高,越来越多的显存使用了MBGA封装,尤其是DDR2和DDR3显存,全都使用了MBGA封装。

  此外很多厂商也将DDR2和DDR3显存的封装称为FBGA,这种称呼更偏重于对针脚排列的命名,实际是相同的封装形式。此外虽然MBGA和TSOP-II相比,可以达到更高的显存频率,但是不能简单的认为MBGA封装的显存一定更好超频,因为是否容易超频,更多的取决于厂商定的默认频率和显存实际能达到的频率之间的差距,包括显卡的设计制造,简单的说MBGA封装可以达到更高频率,但其默认频率也更高。  工艺制程

  不论是显示芯片还是显存都有制造工艺这个参数,主要是用微米(已过时)和纳米来衡量其加工精度的。制造工艺的提高,意味着显示芯片的体积将更小、集成度更高,可以容纳更多的晶体管,性能会更加强大,功耗也会降低。

  制造工艺是显卡乃至更多IT产品更新换代的技术基础,当然应用更好的制造工艺说明该产品更先进。目前显卡核心方面的制造工艺已经达到40纳米级别,不久之后还会进入28纳米时代。 

  显卡输出端口

  常见的显卡输出端口有D-Sub端接口、D-Sub端口、DVI-I端口和Video-In & Video-Out(以下简称“VIVO”)端口、复合视频端子、S端子和增强型S端子、DVI端口、HDMI端口等。

  VGA(D-Sub)

  显卡所处理的信息最终都要输出到显示器上,显卡的输出接口就是电脑与显示器之间的桥梁,它负责向显示器输出相应的图像信号。CRT显示器因为设计制造上的原因,只能接受模拟信号输入,这就需要显卡能输入模拟信号。VGA接口就是显卡上输出模拟信号的接口,VGA(Video Graphics Array)接口,也叫D-Sub接口。虽然液晶显示器可以直接接收数字信号,但很多低端产品为了与VGA接口显卡相匹配,因而采用VGA接口。VGA接口是一种D型接口,上面共有15针空,分成三排,每排五个。VGA接口是显卡上应用最为广泛的接口类型,绝大多数的显卡都带有此种接口。

  目前大多数计算机与外部显示设备之间都是通过模拟VGA接口连接,计算机内部以数字方式生成的显示图像信息,被显卡中的数字/模拟转换器转变为R、G、B三原色信号和行、场同步信号,信号通过电缆传输到显示设备中。对于模拟显示设备,如模拟CRT显示器,信号被直接送到相应的处理电路,驱动控制显像管生成图像。而对于LCD、DLP等数字显示设备,显示设备中需配置相应的A/D(模拟/数字)转换器,将模拟信号转变为数字信号。在经过D/A和A/D2次转换后,不可避免地造成了一些图像细节的损失。VGA接口应用于CRT显示器无可厚非,但用于连接液晶之类的显示设备,则转换过程的图像损失会使显示效果略微下降。

  DVI

  DVI全称为Digital Visual Interface,它是1999年由Silicon Image、Intel(英特尔)、Compaq(康柏)、IBM、HP(惠普)、NEC、Fujitsu(富士通)等公司共同组成DDWG(Digital Display Working Group,数字显示工作组)推出的接口标准。它是以Silicon Image公司的PanalLink接口技术为基础,基于TMDS(Transition Minimized Differential Signaling,最小化传输差分信号)电子协议作为基本电气连接。TMDS是一种微分信号机制,可以将象素数据编码,并通过串行连接传递。显卡产生的数字信号由发送器按照TMDS协议编码后通过TMDS通道发送给接收器,经过解码送给数字显示设备。一个DVI显示系统包括一个传送器和一个接收器。传送器是信号的来源,可以内建在显卡芯片中,也可以以附加芯片的形式出现在显卡PCB上;而接收器则是显示器上的一块电路,它可以接受数字信号,将其解码并传递到数字显示电路中,通过这两者,显卡发出的信号成为显示器上的图象。

  目前的DVI接口分为两种,一个是DVI-D接口,只能接收数字信号,接口上只有3排8列共24个针脚,其中右上角的一个针脚为空。不兼容模拟信号。

  S端子接口

  S端子也就是Separate Video,而 “Separate”的中文意思就是“分离”。它是在AV接口的基础上将色度信号C 和亮度信号Y进行分离,再分别以不同的通道进行传输,减少影像传输过程中的“分离”、“合成”的过程,减少转化过程中的损失,以得到最佳的显示效果。

  通常显卡上采用的S端子有标准的4针接口(不带音效输出)和扩展的7针接口(带音效输出)。S端子相比于AV 接口,由于它不再进行Y/C混合传输,因此也就无需再进行亮色分离和解码工作,而且使用各自独立的传输通道,在很大程度上避免了视频设备内信号串扰而产生的图像失真,极大地提高了图像的清晰度。

  HDMI接口

  HDMI,高清晰度多媒体接口(英文:High Definition Multimedia Interface)是一种全数位化影像和声音传送接口,可以传送无压缩的音频信号及视频信号。HDMI可用于机顶盒、DVD播放机、个人电脑、电视游乐器、综合扩大机、数位音响与电视机。HDMI可以同时传送音频和影音信号,由于音频和视频信号采用同一条电缆,大大简化了系统的安装。 

  最大分辨率

  显卡的最大分辨率是指显卡在显示器上所能描绘的像素点的数量。大家知道显示器上显示的画面是一个个的像素点构成的,而这些像素点的所有数据都是由显卡提供的,最大分辨率就是表示显卡输出给显示器,并能在显示器上描绘像素点的数量。分辨率越大,所能显示的图像的像素点就越多,并且能显示更多的细节,当然也就越清晰。

  最大分辨率在一定程度上跟显存有着直接关系,因为这些像素点的数据最初都要存储于显存内,因此显存容量会影响到最大分辨率。在早期显卡的显存容量只具有512KB、1MB、2MB等极小容量时,显存容量确实是最大分辨率的一个瓶颈;但目前主流显卡的显存容量,就连64MB也已经被淘汰,主流的娱乐级显卡已经是256MB、512MB甚至1GB以上,某些专业显卡甚至已经具有1GB的显存,在这样的情况下,显存容量早已经不再是影响最大分辨率的因素,之所以需要这么大容量的显存,不过就是因为现在的大型3D游戏和专业渲染需要临时存储更多的数据罢了。

  现在决定最大分辨率的其实是显卡的RAMDAC频率,目前所有主流显卡的RAMDAC都达到了400MHz,至少都能达到2048x1536的最大分辨率,而最新一代显卡的最大分辨率更是高达2560x1600了。

  另外,显卡能输出的最大显示分辨率并不代表自己的电脑就能达到这么高的分辨率,还必须有足够强大的显示器配套才可以实现,也就是说,还需要显示器的最大分辨率与显卡的最大分辨率相匹配才能实现。例如要实现2048x1536的分辨率,除了显卡要支持之外,还需要显示器也要支持。而CRT显示器的最大分辨率主要是由其带宽所决定,而液晶显示器的最大分辨率则主要由其面板所决定。目前主流的显示器,17英寸的CRT其最大分辨率一般只有1600x1200,17英寸和19英寸的液晶则只有1280x1024,所以目前在普通电脑系统上最大分辨率的瓶颈不是显卡而是显示器。要实现2048x1536甚至2560x1600的最大分辨率,只有借助于专业级的大屏幕高档显示器才能实现,例如DELL的30英寸液晶显示器就能实现2560x1600的超高分辨率。 

  DirectX

  DirectX并不是一个单纯的图形API,它是由微软公司开发的用途广泛的API,它包含有Direct Graphics(Direct 3D+Direct Draw)、Direct Input、Direct Play、Direct Sound、Direct Show、Direct Setup、Direct Media Objects等多个组件,它提供了一整套的多媒体接口方案。只是其在3D图形方面的优秀表现,让它的其它方面显得暗淡无光。DirectX开发之初是为了弥补Windows 3.1系统对图形、声音处理能力的不足,而今已发展成为对整个多媒体系统的各个方面都有决定性影响的接口。

  DirectX 5.0

  微软公司并没有推出DirectX 4.0,而是直接推出了DirectX 5.0。此版本对Direct3D做出了很大的改动,加入了雾化效果、Alpha混合等3D特效,使3D游戏中的空间感和真实感得以增强,还加入了S3的纹理压缩技术。同时,DirectX 5.0在其它各组件方面也有加强,在声卡、游戏控制器方面均做了改进,支持了更多的设备。因此,DirectX发展到DirectX 5.0才真正走向了成熟。此时的DirectX性能完全不逊色于其它3D API,而且大有后来居上之势。

  DirectX 6.0

  DirectX 6.0推出时,其最大的竞争对手之一Glide,已逐步走向了没落,而DirectX则得到了大多数厂商的认可。DirectX 6.0中加入了双线性过滤、三线性过滤等优化3D图像质量的技术,游戏中的3D技术逐渐走入成熟阶段。

  DirectX 7.0

  DirectX 7.0最大的特色就是支持T&L,中文名称是“坐标转换和光源”。3D游戏中的任何一个物体都有一个坐标,当此物体运动时,它的坐标发生变化,这指的就是坐标转换;3D游戏中除了场景+物体还需要灯光,没有灯光就没有3D物体的表现,无论是实时3D游戏还是3D影像渲染,加上灯光的3D渲染是最消耗资源的。虽然OpenGL中已有相关技术,但此前从未在民用级硬件中出现。在T&L问世之前,位置转换和灯光都需要CPU来计算,CPU速度越快,游戏表现越流畅。使用了T&L功能后,这两种效果的计算用显示卡的GPU来计算,这样就可以把CPU从繁忙的劳动中解脱出来。换句话说,拥有T&L显示卡,使用DirectX 7.0,即使没有高速的CPU,同样能流畅的跑3D游戏。

  DirectX 8.0

  DirectX 8.0的推出引发了一场显卡革命,它首次引入了“像素渲染”概念,同时具备像素渲染引擎(Pixel Shader)与顶点渲染引擎(Vertex Shader),反映在特效上就是动态光影效果。同硬件T&L仅仅实现的固定光影转换相比,VS和PS单元的灵活性更大,它使GPU真正成为了可编程的处理器。这意味着程序员可通过它们实现3D场景构建的难度大大降低。通过VS和PS的渲染,可以很容易的宁造出真实的水面动态波纹光影效果。此时DirectX的权威地位终于建成。

  DirectX 9.0

  2002年底,微软发布DirectX9.0。DirectX 9中PS单元的渲染精度已达到浮点精度,传统的硬件T&L单元也被取消。全新的VertexShader(顶点着色引擎)编程将比以前复杂得多,新的VertexShader标准增加了流程控制,更多的常量,每个程序的着色指令增加到了1024条。

  PS 2.0具备完全可编程的架构,能对纹理效果即时演算、动态纹理贴图,还不占用显存,理论上对材质贴图的分辨率的精度提高无限多;另外PS1.4只能支持28个硬件指令,同时操作6个材质,而PS2.0却可以支持160个硬件指令,同时操作16个材质数量,新的高精度浮点数据规格可以使用多重纹理贴图,可操作的指令数可以任意长,电影级别的显示效果轻而易举的实现。

  VS 2.0通过增加Vertex程序的灵活性,显著的提高了老版本(DirectX8)的VS性能,新的控制指令,可以用通用的程序代替以前专用的单独着色程序,效率提高许多倍;增加循环操作指令,减少工作时间,提高处理效率;扩展着色指令个数,从128个提升到256个。

  增加对浮点数据的处理功能,以前只能对整数进行处理,这样提高渲染精度,使最终处理的色彩格式达到电影级别。突破了以前限制PC图形图象质量在数学上的精度障碍,它的每条渲染流水线都升级为128位浮点颜色,让游戏程序设计师们更容易更轻松的创造出更漂亮的效果,让程序员编程更容易。

  DirectX 9.0c

  与过去的DirectX 9.0b和Shader Model 2.0相比较,DirectX 9.0c最大的改进,便是引入了对Shader Model 3.0(包括Pixel Shader 3.0 和Vertex Shader 3.0两个着色语言规范)的全面支持。举例来说,DirectX 9.0b的Shader Model 2.0所支持的Vertex Shader最大指令数仅为256个,Pixel Shader最大指令数更是只有96个。而在最新的Shader Model 3.0中,Vertex Shader和Pixel Shader的最大指令数都大幅上升至65535个,全新的动态程序流控制、 位移贴图、多渲染目标(MRT)、次表面散射 Subsurface scattering、柔和阴影 Soft shadows、环境和地面阴影 Environmental and ground shadows、全局照明 (Global illumination)等新技术特性,使得GeForce 6、GeForce7系列以及Radeon X1000系列立刻为新一代游戏以及具备无比真实感、幻想般的复杂的数字世界和逼真的角色在影视品质的环境中活动提供强大动力。

  因此DirectX 9.0c和Shader Model 3.0标准的推出,可以说是DirectX发展历程中的重要转折点。在DirectX 9.0c中,Shader Model 3.0除了取消指令数限制和加入位移贴图等新特性之外,更多的特性都是在解决游戏的执行效率和品质上下功夫,Shader Model 3.0诞生之后,人们对待游戏的态度也开始从过去单纯地追求速度,转变到游戏画质和运行速度两者兼顾。因此Shader Model 3.0对游戏产业的影响可谓深远。  OpenGl

  OpenGL(全写Open Graphics Library)是个定义了一个跨编程语言、跨平台的编程接口的规格,它用于三维图象(二维的亦可)。OpenGL是个专业的图形程序接口,是一个功能强大,调用方便的底层图形库。

  高性能图形算法行业标准

  OpenGL™ 是行业领域中最为广泛接纳的 2D/3D 图形 API, 其自诞生至今已催生了各种计算机平台及设备上的数千优秀应用程序。OpenGL™ 是独立于视窗操作系统或其它操作系统的,亦是网络透明的。在包含CAD、内容创作、能源、娱乐、游戏开发、制造业、制药业及虚拟现实等行业领域中,OpenGL™ 帮助程序员实现在 PC、工作站、超级计算机等硬件设备上的高性能、极具冲击力的高视觉表现力图形处理软件的开发。

  OpenGL™的前身是SGI公司为其图形工作站开发的IRIS GL。IRIS GL是一个工业标准的3D图形软件接口,功能虽然强大但是移植性不好,于是SGI公司便在IRIS GL的基础上开发了OpenGL。OpenGL的英文全称是“Open Graphics Library”,顾名思义,OpenGL便是“开放的图形程序接口”。虽然DirectX在家用市场全面领先,但在专业高端绘图领域,OpenGL是不能被取代的主角。

  OpenGL是个与硬件无关的软件接口,可以在不同的平台如Windows 95、Windows NT、Unix、Linux、MacOS、OS/2之间进行移植。因此,支持OpenGL的软件具有很好的移植性,可以获得非常广泛的应用。由于OpenGL是图形的底层图形库,没有提供几何实体图元,不能直接用以描述场景。但是,通过一些转换程序,可以很方便地将AutoCAD、3DS/3DSMAX等3D图形设计软件制作的DXF和3DS模型文件转换成OpenGL的顶点数组。

  在OpenGL的基础上还有Open Inventor、Cosmo3D、Optimizer等多种高级图形库,适应不同应用。其中,Open Inventor应用最为广泛。该软件是基于OpenGL面向对象的工具包,提供创建交互式3D图形应用程序的对象和方法,提供了预定义的对象和用于交互的事件处理模块,创建和编辑3D场景的高级应用程序单元,有打印对象和用其它图形格式交换数据的能力。

  OpenGL的发展一直处于一种较为迟缓的态势,每次版本的提高新增的技术很少,大多只是对其中部分做出修改和完善。1992年7月,SGI公司发布了OpenGL的1.0版本,随后又与微软公司共同开发了Windows NT版本的OpenGL,从而使一些原来必须在高档图形工作站上运行的大型3D图形处理软件也可以在微机上运用。1995年OpenGL的1.1版本面市,该版本比1.0的性能有许多提高,并加入了一些新的功能。其中包括改进打印机支持,在增强元文件中包含OpenGL的调用,顶点数组的新特性,提高顶点位置、法线、颜色、色彩指数、纹理坐标、多边形边缘标识的传输速度,引入了新的纹理特性等等。OpenGL 1.5又新增了“OpenGL Shading Language”,该语言是“OpenGL 2.0”的底核,用于着色对象、顶点着色以及片断着色技术的扩展功能。

  OpenGL 2.0标准的主要制订者并非原来的SGI,而是逐渐在ARB中占据主动地位的3DLabs。2.0版本首先要做的是与旧版本之间的完整兼容性,同时在顶点与像素及内存管理上与DirectX共同合作以维持均势。OpenGL 2.0将由OpenGL 1.3的现有功能加上与之完全兼容的新功能所组成(如图一)。借此可以对在ARB停滞不前时代各家推出的各种纠缠不清的扩展指令集做一次彻底的精简。此外,硬件可编程能力的实现也提供了一个更好的方法以整合现有的扩展指令。

  目前,随着DirectX的不断发展和完善,OpenGL的优势逐渐丧失,至今虽然已有3Dlabs提倡开发的2.0版本面世,在其中加入了很多类似于DirectX中可编程单元的设计,但厂商的用户的认知程度并不高,未来的OpenGL发展前景迷茫。  渲染管线

  渲染管线也称为渲染流水线,是显示芯片内部处理图形信号相互独立的的并行处理单元。渲染管线在某种程度上可以把渲染管线比喻为工厂里面常见的各种生产流水线,工厂里的生产流水线是为了提高产品的生产能力和效率,而渲染管线则是提高显卡的工作能力和效率。

  渲染管线的数量一般是以 像素渲染流水线的数量×每管线的纹理单元数量 来表示。例如,GeForce 6800Ultra的渲染管线是16×1,就表示其具有16条像素渲染流水线,每管线具有1个纹理单元;GeForce4 MX440的渲染管线是2×2,就表示其具有2条像素渲染流水线,每管线具有2个纹理单元等等,其余表示方式以此类推。

  渲染管线的数量是决定显示芯片性能和档次的最重要的参数之一,在相同的显卡核心频率下,更多的渲染管线也就意味着更大的像素填充率和纹理填充率,从显卡的渲染管线数量上可以大致判断出显卡的性能高低档次。但显卡性能并不仅仅只是取决于渲染管线的数量,同时还取决于显示核心架构、渲染管线的的执行效率、顶点着色单元的数量以及显卡的核心频率和显存频率等等方面。一般来说在相同的显示核心架构下,渲染管线越多也就意味着性能越高,例如16×1架构的GeForce 6800GT其性能要强于12×1架构的GeForce 6800,就象工厂里的采用相同技术的2条生产流水线的生产能力和效率要强于1条生产流水线那样;而在不同的显示核心架构下,渲染管线的数量多就并不意味着性能更好,例如4×2架构的GeForce2 GTS其性能就不如2×2架构的GeForce4 MX440,就象工厂里的采用了先进技术的1条流水线的生产能力和效率反而还要强于只采用了老技术的2条生产流水线那样。

   Shader频率

  Shader频率中文意思为着色器频率,它是DirectX 10统一渲染架构(Unified Shader Architecture)诞生后出现的新产物,Shader频率与显卡核心频率和显存频率一样,都是影响显卡性能高低的重要频率。

  在不支持Directx的显卡中不存在这个频率!  显存时钟周期

  显存时钟周期就是显存时钟脉冲的重复周期,它是作为衡量显存速度的重要指标。显存速度越快,单位时间交换的数据量也就越大,在同等情况下显卡性能将会得到明显提升。显存的时钟周期一般以ns(纳秒)为单位,工作频率以MHz为单位。显存时钟周期跟工作频率一一对应,它们之间的关系为:工作频率=1÷时钟周期×1000。如果显存频率为166MHz,那么它的时钟周期为1÷166×1000=6ns。

  对于DDR SDRAM或者DDR2、DDR3显存来说,描述其工作频率时用的是等效输出频率。因为能在时钟周期的上升沿和下降沿都能传送数据,所以在工作频率和数据位宽度相同的情况下,显存带宽是SDRAM的两倍。换句话说,在显存时钟周期相同的情况下,DDR SDRAM显存的等效输出频率是SDRAM显存的两倍。例如,5ns的SDRAM显存的工作频率为200MHz,而5ns的DDR SDRAM或者DDR2、DDR3显存的等效工作频率就是400MHz。常见显存时钟周期有5ns、4ns、3.8ns、3.6ns、3.3ns、2.8ns、2.0ns、1.6ns、1.1ns,甚至更低。

  显存时钟周期数越小越好。显存频率与显存时钟周期(也就是通常所说的XXns)之间为倒数关系,也就是说显存时钟周期越小,它的显存频率就越高,显卡的性能也就越好!  TV-Out  TV-Out是指显卡具备输出信号到电视的相关接口。目前普通家用的显示器尺寸不会超过24寸,显示画面相比于电视的尺寸来说小了很多,尤其在观看电影、打游戏时,更大的屏幕能给人带来更强烈的视觉享受。而更大尺寸的显示器价格是普通用户无法承受的,将显示画面输出到电视,这就成了一个不错的选择。  3D引擎

  3D引擎是将现实中的物质抽象为多边形或者各种曲线等表现形式,在计算机中进行相关计算并输出最终图像的算法实现的集合。

  3D引擎根据是否能够被主流计算机即时计算出结果分为即时3D引擎和离线3D引擎。PC机及游戏机上的即时3D画面就是用即时3D引擎运算生成的,而电影中应用的3D画面则是用离线3D引擎来实现以达到以假乱真的效果。

  3D引擎对物质的抽象主要分为多边形和NURBS两种。在即时引擎中多边形实现已经成为了事实上的标准,因为任何多边形都可以被最终分解为容易计算和表示的三角形。而在离线引擎中为了追求最好的视觉效果会使用大量的NURBS曲线来实现多边形很难表现出的细节和灵活性。 

  插槽接口类型

  接口类接口类型型是指显卡与主板连接所采用的接口种类。显卡的接口决定着显卡与系统之间数据传输的最大带宽,也就是瞬间所能传输的最大数据量。不同的接口决定着主板是否能够使用此显卡,只有在主板上有相应接口的情况下,显卡才能使用,并且不同的接口能为显卡带来不同的性能。

  目前各种3D游戏和软件对显卡的要求越来越高,主板和显卡之间需要交换的数据量也越来越大,过去的显卡接口早已不能满足这样大量的数据交换,因此通常主板上都带有专门插显卡的插槽。假如显卡接口的传输速度不能满足显卡的需求,显卡的性能就会受到巨大的限制,再好的显卡也无法发挥。显卡发展至今主要出现过ISA、PCI、AGP、PCI Express等几种接口,所能提供的数据带宽依次增加。其中2004年推出的PCI Express接口已经成为主流,以解决显卡与系统数据传输的瓶颈问题,而ISA、PCI接口的显卡已经基本被淘汰。目前市场上显卡一般是AGP和PCI-E这两种显卡接口。

  AGP接口

  AGP,全称为加速图像处理端口(Accelerated Graphics Port),是电脑主板上的一种高速点对点传输通道,供显卡使用,主要应用在三维电脑图形的加速上。AGP是在1997年由Intel提出,是从PCI标准上建立起来,是一种显卡专用接口。

  PCI接口

  PCI是Peripheral Component Interconnect(外设部件互连标准)的缩写,它是目前个人电脑中使用最为广泛的接口,几乎所有的主板产品上都带有这种插槽。PCI插槽也是主板带有最多数量的插槽类型,在目前流行的台式机主板上,ATX结构的主板一般带有5~6个PCI插槽,而小一点的MATX主板也都带有2~3个PCI插槽,可见其应用的广泛性。

  PCI Express接口

  PCI Express是新一代的总线接口,而采用此类接口的显卡产品,已经在2004年正式面世。早在2001年的春季“英特尔开发者论坛”上,英特尔公司就提出了要用新一代的技术取代PCI总线和多种芯片的内部连接,并称之为第三代I/O总线技术。随后在2001年底,包括Intel、AMD、DELL、IBM在内的20多家业界主导公司开始起草新技术的规范,并在2002年完成,对其正式命名为PCI Express。 

  散热方式

  由于显卡核心工作频率与显存工作频率的不断攀升,显卡芯片的发热量也在迅速提升。显示芯片的晶体管数量已经达到,甚至超过了CPU内的数量,如此高的集成度必然带来了发热量的增加,为了解决这些问题,显卡都会采用必要的散热方式。尤其对于超频爱好者和需要长时间工作的用户,优秀的散热方式是选择显卡的必选项目。

  被动式散热

  显卡的散热方式分为散热片和散热片配合风扇的形式,也叫作主动式散热和被动式散热方式。一般一些工作频率较低的显卡采用的都是被动式散热,这种散热方式就是在显示芯片上安装一个散热片即可,并不需要散热风扇。因为较低工作频率的显卡散热量并不是很大,没有必要使用散热风扇,这样在保障显卡稳定工作的同时,不仅可以降低成本,而且还能减少使用中的噪音。

  主动式散热

  主动式散热除了在显示芯片上安装散热片之外,还安装了散热风扇,工作频率较高的显卡都需要这种主动式散热。因为较高的工作频率就会带来更高的热量,仅安装一个散热片的话很难满足散热的需要,所以就需要风扇的帮助,而且对于那些超频使用的用户和需要长时间使用的用户来说就更重要了。

  按照热功学原理我们可以把目前显卡的散热方式分为轴流式散热和风道导流式散热。其中轴流式散热是最常见的散热方式,这种散热方式类似于CPU散热器的散热方式,主要靠采用高导热系数的大面积金属材质散热器来实现散热。此外,厂商还会为散热器配置散热风扇,散热风扇会按电机轴向吸收空气并吹到散热片上,从而达到高效率散热的目的。不过,这种方式散发出的热量最终还是要排放到机箱内,对机箱自身的散热系统提出了较高的要求,当机箱散热效果不佳的时候,显卡散热效率也将会大打折扣。

  导流式散热

  导流式散热则是一种非常好的设计,很多高档游戏显卡都采用了这种散热方式,虽然该散热系统的外形与轴流式有些相似,但其散热效果却是轴流式散热系统不可比拟的。CHIP本次测试的显卡中,升技生产的显卡基本都采用了这种散热方式,散热片收集的热量可以通过显卡自身的专用导流风道直接排到机箱的外部,既保证了显卡的散热效果,又不为机箱增加额外的热负荷。

  水冷散热

  水冷散热与风冷散热其本质是相同的,只是液冷中利用循环液将CPU的热量从水冷块中搬运到换热器上再散发出去,由于换热器的散热面积和散热环境远远要好于一般的风冷散热器,所以液冷的降温效果非常明显。 

  显卡BIOS

  BIOS是Basic Input Output System的简称,也就是“基本输入输出系统”。显卡BIOS固化在显示卡所带的一个专用存储器里。BIOS中储存了显示卡的硬件控制程序和相关信息。可以说BIOS是显示卡的“神经中枢”。开机后显示卡BIOS中的数据被映射到内存里并控制整个显卡的工作。

  显卡BIOS芯片用来保存显卡 BIOS程序,和主板BIOS一样,显卡BIOS是储存在BIOS芯片中的,而不是储存在磁盘中。显卡BIOS主要用于显卡上各器件之间正常运行时的控制和管理,所以BIOS程序的技术质量(合理性和功能)必将影响显卡最终的产品技术特性。另外在显卡BIOS中还保存了所在显卡的主要技术信息,如图形处理芯片的型号规格、VGA BIOS的版本和编制日期等。显卡BIOS芯片在大多数显卡上比较容易区分,因为这类芯片上通常都贴有标签,但在个别显卡如Matrox公司的MGA G200上就看不见,原因是它与图形处理芯片集成在一起了。也有的显卡的BIOS集成在主板的BIOS中。 

  顶点着色单元

  顶点着色单元是显示芯片内部用来处理顶点(Vertex)信息并完成着色工作的并行处理单元。顶点着色单元决定了显卡的三角形处理和生成能力,所以也是衡量显示芯片性能特别是3D性能的重要参数。

  顶点(Vertex)是图形学中的最基本元素,在三维空间中,每个顶点都拥有自己的坐标和颜色值等参数,三个顶点可以构成成一个三角形,而显卡所最终生成的立体画面则是由数量繁多的三角形构成的,而三角形数量的多少就决定了画面质量的高低,画面越真实越精美,就越需要数量更多的三角形来构成。顶点着色单元就是处理着些信息然后再送给像素渲染单元完成最后的贴图工作,最后再输出到显示器就成为我们所看到的3D画面。而显卡的顶点处理能力不足,就会导致要么降低画质,要么降低速度。

  在相同的显示核心下,顶点着色单元的数量就决定了显卡的性能高低,数量越多也就意味着性能越高,例如具有6个顶点着色单元的GeForce 6800GT就要比只具有5个顶点着色单元的GeForce 6800性能高:但在不同的显示核心架构下顶点着色单元的数量多则并不一定就意味着性能越高,这还要取决于顶点着色单元的效率以及显卡的其它参数,例如具有4个顶点着色单元的Radeon 9800Pro其性能还不如只具有3个顶点着色单元的GeForce 6600GT。 

  显卡交火

  显卡交火(CrossFire,交叉火力,ATI的CrossFire技术,主要是ATI的用这个词;nVIDIA的用的是SLI这个词) 简单的说就是:多显卡技术就是让两块或者多块显卡协同工作,是指芯片组支持能提高系统图形处理能力或者满足某些特殊需求的多显卡并行技术。要实现多显卡技术一般来说需要主板芯片组、显示芯片以及驱动程序三者的支持。

   目前,多显卡技术主要是两大显示芯片厂商nVIDIA的SLI技术和ATI的CrossFire技术,另外还有主板芯片组厂商VIA的DualGFX Express技术和ULI的TGI技术。  物理加速技术

  物理加速引擎是在2005年3月的「游戏开发者会议GDC」上就出现了这个新名词!它就是AGEIA公司在GDC2005游戏开发者大会上推出了物理处理器,被称为05年度图形领域的重大技术创新。

  随后,两大图形芯片厂商NVIDIA、ATI也各自推出了基于GPU基础之上物理加速技术。 物理加速技术,有两种,一种是PhysX,另一种是Havok简而言之,这是PC游戏的又一次变革。其宗旨是,“Make it Real!”。  细分曲面

  Tessellation细分曲面技术是AMD(ATI)常年研发多代的技术,经过多年发展最终被采纳成为DX11的一项关键技术,因此历来都是宣传重点。和光线追踪不同,现在的光栅化图形渲染技术的核心是绘制大量三角形来组成3D模型,而Tessellation技术就是利用GPU硬件加速,将现有3D模型的三角形拆分得更细小、更细致,也就是大大增加三角形数量,使得渲染对象的表面和边缘更平滑、更精细。

  目前N卡也支持曲面细分,而且曾经在曲面细分表现上一度赶超A卡,不过最新的AMD HD6000系列正在逐步推出,更强劲的曲面细分能力也让许多玩家叹服。 

  多屏显示

   多屏显示卡是专为今天的PC机更深层的应用要求而设计的高性能的多屏卡。它使一台PC机支持多台VGA显示器、电视机或DVI数字平面显示器,它是专为当今图形图像应用而设计的,特别是在windows下进行多种运行参数开发设计、编辑、控制、多媒体。

   多屏显示卡并不是简单的多个显示器显示多个相同内容,而是多个屏幕上显示各自不同的画面,并可显示拼接的组合大画面。比如分屏数为4的多屏显示卡可以连接4台显示器,既可以让这4台显示器分别显示画面的一部分,一起组成一副画面,也可以让这4台显示器各自显示不同的画面。鼠标及窗口还可以在各个屏幕间漫游移动,而无需软件的任何改动。

   多屏显示卡广泛应用于:监控、指挥、调度系统;公安、消防、军事、气象、铁路、航空等监控系统中;视讯会议、查询系统等。  显卡超频

  显卡超频是通过提高显卡核心与显存的工作频率来达到提升性能的目的。同CPU超频类似,主要手段有改变核心和显存的电压、频率,加强显卡的散热系统。不管如何,超频是对显卡有不可逆的伤害的。

  显卡超频一般有2个方法:1、硬件超频 2、软件超频

  关于硬件超频,其实就是提升系统的外频而提高AGP总线的频率,适当的时候 可以考虑给AGP加电压。但是这个方法不好操作,并且风险很大,一不小心你的兵器就冒烟了。另外一种就是通过专门的超频软件进行软超频。 

  显卡驱动

  显卡驱动程序就是用来驱动显卡的程序,它是硬件所对应的软件,你装电脑时那帮你装电脑的人不是给了你很多碟子的吗,那些就是驱动程序,其中必然有一张是显卡的驱动程序。

  先要确定你的显卡什么牌子型号的,如果记不得了,就打开机箱看那个竖插在主板上的较大板子(一般显卡有很大的散热片或风扇)上的型号品牌。如果是集成的显卡(在主板上看不到前面说的那样的电路板),就看主板上的型号品牌,记下来。然后到驱动之家www.mydrivers.com/ 搜索你的型号品牌,下载相应驱动程序并安装。就可以了。

  但是有些游戏需要特殊显卡支持,所以请首先确定你玩得游戏不是非常新的或者你的显卡不是特别古老。 

  抗锯齿

  抗锯齿(Anti-aliasing):标准翻译为”抗图像折叠失真“。由于在3D图像中,受分辨的制约,物体边缘总会或多或少的呈现三角形的锯齿,而抗锯齿就是指对图像边缘进行柔化处理,使图像边缘看起来更平滑,更接近实物的物体。它是提高画质以使之柔和的一种方法。

  如今最新的全屏抗锯齿(FullSceneAnti-Aliasing)可以有效的消除多边形结合处(特别是较小的多边形间组合中)的错位现象,降低了图像的失真度。全景抗锯齿在进行处理时,须对图像附近的像素进行2-4次采样,以达到不同级别的抗锯齿效果。简单的说也就是将图像边缘及其两侧的像素颜色进行混合,然后用新生成的具有混合特性的点来替换原来位置上的点以达到柔化物体外形、消除锯齿的效果。   垂直同步

  垂直和水平是CRT中两个基本的同步信号,水平同步信号决定了CRT画出一条横越屏幕线的时间,垂直同步信号决定了CRT从屏幕顶部画到底部,再返回原始位置的时间,而恰恰是垂直同步代表着CRT显示器的刷新率水平。

  为什么垂直同步的开关会影响CS中的fps值?道理一点都不复杂。首先我们平时运行操作系统一般屏幕刷新率是多少?大概一般都是在85上下吧,那么显卡就会每按照85的频率时间来发送一个垂直同步信号,信号和信号的时间间隔是85的分辨率所写一屏图像时间。

  如果选择“等待垂直同步信号”(也就是“打开垂直同步”),显卡绘制图形前会等待信号;性能强劲的显卡则会提前完成绘制,并在下个信号到达之前等待。此时,游戏的fps值会受显示器刷新率的制约。对于高端显卡而言,这限制了其性能的发挥。

  而如果选择“不等待垂直同步信号”(也就是“关闭垂直同步”),那么显卡绘制完一屏画面,不等待垂直同步信号,就开始下一屏画面的绘制,自然可以完全发挥显卡的实力。但是,不要忘记,正是因为垂直同步的存在,才能使得游戏进程和显示器刷新率同步,使得画面平滑,使得画面稳定。取消了垂直同步信号,固然可以换来更快的速度,但是在图像的连续性上,性能势必打折扣。这也正是很多朋友抱怨关闭垂直后发现画面不连续的理论原因!