渲染数字世界

我们的视野·产品与技术

20年以来,电脑的性能突飞猛进,除了大家关注的CPU外,GPU的贡献也功不可没。譬如高清播放、3D游戏等应用,GPU都承担了计算任务,而随着技术的进一步发展,在图像处理、视频压缩、流计算等领域也可由GPU来完成,这就意味着在PC中,GPU的地位变得越来越重要。

进化风向标 DirectX改变GPU架构

24-c06-2.jpg

在AMD、NVIDIA两强争霸的局面下,GPU之争变得难解难分,它们每一代产品之间的PK都吸引了无数玩家的眼球。细心观察,就会发现那些激烈对决往往在微软DirectX版本更新时出现,因此DirectX与GPU的架构有着最直接关系,而GPU架构的优劣直接决定了一代显卡产品的成败。

回顾20年来GPU的发展历史,DirectX一直在左右着两大GPU巨头的发展,并影响到GPU体系架构方面的设计实力。从DX7、DX8、DX9、DX10到DX11,每当DirectX有重大版本更新时,NVIDIA和AMD旗下的GPU架构都会有大幅调整,甚至是抛弃老架构重新设计一套新的架构。因为全新的架构完全针对新的DirectX API设计,能够彻底发挥出新技术和特性的优势,确保发挥出预期的效果。在激烈的对决中,只有设计出新的GPU架构才能让显卡产品的性能不掉队或者取得市场的胜利。

在DX7时代,全新的架构让GPU发生了革命性的改进,在DX8.1时代,Radeon 8500打垮了GeForce 3,随后ATI放弃了与GeForce 4在DX8上争锋,提前进入DX9,使得全新架构的R300大获全胜。后期的DX9c时代,NV40重返王座,但后续的G70/G71因为没有更换架构,在ATI全新的R580面前失去了底气。在DX10时代,G80/G92统一架构一路领先,R600架构脱胎于R580,而在RV770诞生后,其又赢得了市场的关注。

革命性的进步 统一渲染架构

DX10的发布标志着又一次GPU架构大革命的来临,除了将Shader Model从3.0升级至4.0版本外,最重要的是引入了统一渲染架构,这就要求NVIDIA和AMD双方都必须放弃以往的模式,重新设计全新的GPU架构,于是G80和R600之争拉开了帷幕,而且一打就是5年之久。

在GeForce 8系列显卡之前,所有GPU都采用Vertex Shader(顶点渲染引擎)和Pixel Shader(像素渲染引擎)分离的架构,GPU的频率往往就是指它们的频率。但在GeForce 8系列显卡之后,GPU改用更灵活的统一渲染架构,让Vertex Shader与Pixel Shader都集中到统一的多用途Shader单元中进行工作。NVIDIA把它称为Streaming Processor(流处理器),AMD-ATI称之为流处理单元,即GPU内部实际负责渲染部分。

由于GPU采用的是并行计算架构,可以在同一单位时间内处理多条任务。比如一个拥有240个流处理器的GPU,理论上同一时间内可以处理240个任务,这让GPU看起来更像一个简单的通用CPU处理器,所能接受的指令更加灵活多变,单指令多数据流已不在话下。而GPU也已经向着更高级别的工作进化,例如物理加速、科学计算以及GPGPU等。

人多力量大 多核心协同作战

24-c06-9.jpg

就如同CPU具有多核心设计一样,为了提升更高的性能,GPU也可以设计成多GPU协同工作的模式,例如在高端显卡中常见的一卡双芯,或者NVIDIA SLI和AMD CrossFire的多显卡并联技术,而这两者的结合甚至可以产生4个GPU并行运作的发烧级性能。

早在1997年,当时的显卡市场是3Dfx一家独大,Voodoo加速卡成了玩家追捧的一代经典产品。而让玩家疯狂的是Voodoo2具有的“SLI交错互联”技术,它可以让两块显卡连接起来并行运作,获得几乎翻倍的3D性能。在3Dfx被NVIDIA收购后,NVIDIA基于这项技术在2004年6月推出了SLI多GPU并行处理技术,其中全新的技术让现有的PC系统拥有了更强大的图形性能。在AMD显卡方面,也顺应这种趋势推出了CrossFire,几代主流的Intel和AMD的中高端主板也纷纷支持这种多GPU架构应用。

然而,多GPU的协同使用无疑会增大系统的功耗。对于这类显卡产品配置,图形系统的功耗将占据总功耗的80%以上,因此GPU制程工艺的提升以及节能技术的应用是十分必要的,这是GPU近几年来发展的方向。

因为用户不可能总是在玩3D游戏,上网与商务处理占据80%的正常工作时间,在进行这类应用时,多GPU的使用也可以是降低能耗的灵活设计。一些笔记本电脑厂商采用NVIDIA的Optimus技术,整合芯片组+独立图形模块搭配,用户可以通过切换选择整合图形驱动或独立显卡驱动,这种方式同时兼顾性能与能耗,而且使用起来也颇为方便,因此逐渐流行起来。

Hz的故事

电脑报在1997年报道:3Dfx推出Voodoo 2显卡

24-c06-11.jpg

除了拥有当时最先进的3D性能,Voodoo 2还支持双显卡运行模式。由一个显卡负责渲染画面的奇数帧线部分的数据运算,而另一块显卡渲染偶数帧线数据,然后将同时渲染完毕的帧线进行合并后写入到帧缓冲中,之后就可以显示一个完整的渲染画面了。在整个流程中,每块显卡只需要完成一半的工作量。理论上说,渲染效率也可以提高1倍,这就是双显卡技术大幅提升性能的奥秘所在,当时发烧友们对Voodoo 2抱有莫大的热情。

电脑报在2001年报道:AMD-ATI推出Radeon 8500显卡

24-c06-3.jpg

2000年,AMD-ATI推出了第一代Radeon显卡,但那还不足以和当时经典的GeForce 2系列显卡抗衡。在2001年,ATI终于发布了第一款足以令NVIDIA胆寒的产品——Radeon 8500显卡。它采用0.15微米制程工艺,拥有6000万个晶体管,支持DirectX 8.1和OpenGL 1.3,同时也是第一款引入双头显示功能的显卡。当时的Radeon 8500多数都是AMD-ATI的原厂产品,做工优秀,再加上画质出色,因此颇受玩家追捧。

电脑报在2004年报道:NVIDIA发布NV40显卡

24-c06-4.jpg

NVIDIA NV40是继NV30之后又一个革命性产品——GeForce 6800显卡,它并非以前那种简单的3D游戏加速卡,而更注重数字媒体的作用,提供了可编程渲染、高清晰视频处理、图像处理等功能,支持DirectX 9.0C、Shader Model 3.0和OpenGL 1.5。同时NV40也标志着旧的AGP 8×接口被PCI-E ×16接替,而生产工艺升级到0.13微米制程,支持的显存规格也从DDR2换代为GDDR3。诸多规格的升级,让NV40登上了当时显卡的性能王座。

电脑报在2005年报道:AMD-ATI推出支持交火的显卡

24-c06-13.jpg

AMD-ATI在Computex 2005上推出了支持CrossFire技术的Radeon X850XT显卡。当主从显卡连接后,从卡的图像输出信号通过数据线传入主卡的信号合成芯片,在其中和主卡的图像信号合成为整张图像从主卡输出到显示器上并显示出来。CrossFire技术让游戏运行速度翻倍,或者说在更高的速度下提供更佳的反锯齿画质效果。

电脑报在2006年报道:NVIDIA发布G80显卡

24-c06-7.jpg

G80是NVIDIA一次GPU架构的革命,它不仅是一款性能更强的新一代GPU,实际上,由于采用了符合DirectX 10规范的统一渲染架构,G80较之前的产品有了根本的变化。其中顶级的GeForce 8800GTX显卡凭借128个流处理器,即使是在复杂3D游戏中,画质和速度都能得到兼顾性地改善,而16倍反锯齿以及128bit HDR能渲染出更真实的光源效果。同时,8800GTS 320MB显卡因为低价,成为当时最畅销的G80显卡。

电脑报在2007年报道:AMD-ATI推出R600显卡

24-c06-8.jpg

在G80登场后,AMD-ATI多花了6个月来打造R600这颗支持DirectX 10的全新GPU。其中高端的Radeon HD2900XT采用了80纳米制程工艺,内部植入大约7.2亿个晶体管,超过了GeForce 8800GTX的6.81亿个。从第一代统一架构Xenos GPU(用于XBOX 360游戏主机)发展而来,R600其实采用的是AMD-ATI第二代统一架构着色器技术,其流处理单元多达320个。值得一提的是,R600显卡率先配备HDMI接口,通吃视音频数据流。

写在最后:GPU,未来给你更多精彩

随着时间的推移,GPU在不断进化,很多用户都在想到底是GPU取代CPU,还是CPU整合GPU成为大势所趋?事实上,Intel、AMD和NVIDIA旗下的CPU和GPU都保持着相对固定的路线,按照各自的计划不停发展,它们在技术和架构方面有着很多不谋而合的共同点,而且最终以各自不同的方式去实现相同的目标,未来两者是否会融合,我们拭目以待。