2006~2007年显卡新技术一览
2006~2007年IT新
2006年,各种DirectX 9显卡和游戏达到了空前的繁荣,无论是显卡还是游戏都开始逐步转向DirectX 9 C这一最终标准。而Shader Model 3.0、HDR这些名词更是成了2006年发布的显卡和游戏中必提的名词。
伴随着Windows Vista的发布,我们将会进入DirectX 10时代,整个图形卡架构以及相关技术都将会遭遇彻底的变革。可以预见,在2007年,DirectX 9将会完成他最后的使命而走进历史。2007年也将会成为新旧3D技术承上启下的一年,那在这过程中究竟会出现什么让人激动的技术?就让我们共同来展望一下。
一、革命的号角——DirectX 10
在Windows Vista还被称作Longhorn的时候DirectX 10就被提上了日程。在开发的几年间,DirectX 10一度被更名为WGF(Windows Graphics Foundation,Windows图形基础),但最后微软考虑到DirectX的知名度才将这个划时代的API命名为DirectX 10。
1.统一渲染体系架构
DirectX 10带来的第一个改变就是彻底抛弃了我们经常说到的Vertex Shader(顶点着色引擎)和Pixel Shader(像素着色引擎)。在DirectX 10中,GPU(Graphic Processing Unit,图形处理芯片)不会再被分成Vertex Shader和Pixel Shader独立处理,并且采用不同的指令结构。取而代之的是再DirectX 10中定义的Unified Shader Model(统一渲染体系架构)的概念。
Unified Shader Model从API角度来说就是把Vertex Shader和Pixel Shader从原来的固定单元中抽象出来,然后用统一的方法进行管理。对于开发人员来说,在编写游戏时根本不需要分别对Vertex Shader和Pixel Shader进行编程,因为所有的Unified Shader Model单元都能够根据需要在顶点处理和像素处理间进行切换。
这样的设计成功地避免了因固定Vertex Shader和Pixel Shader数量导致一些显卡架构在某些特定应用中速度很快,而在某些应用中速度很慢的困境。毕竟对于千变万化的游戏来说,对Vertex Shader和Pixel Shader的处理能力各不相同。另一方面,由于统一了指令集,降低了程序的开发难度,所以更进一步提高了3D游戏的开发效率。
2.几何渲染单元
在DirectX 10中新加入的Geometry Shader(几何渲染单元)也是该API的一大飞跃。Geometry Shader被附加在Vertex Shader单元之后,但它并不像Vertex Shader单元那样输出一个个顶点,而是以图元作为处理对象。图元在层次上比顶点高一级,它由一个或多个顶点构成。由单个顶点组成的图元被称为“点”,由两个顶点组成的图元被称为“线”,由3个顶点组成的图元被称为“三角形”。Geometry Shader支持点、线、三角形、带邻接点的线、带邻接点的三角形等多种图元类型,它一次最多可处理6个顶点。借助丰富的图元类型支持,Geometry Shader可以让GPU提供更精细的模型细节。如图1所示。

Geometry Shader赋予GPU自行创造新几何物体、为场景添加内容的神奇能力。灵活的处理能力使GPU更加通用化,以往很多必须倚靠CPU才能完成的工作,现在完全可交由GPU处理。如此一来,CPU就有更多时间处理人工智能、寻址等工作。更令人惊喜的是,Geometry Shader还让物理运算的加入变得更简单,DirectX 10可创建具备物理特性的盒子、模拟刚性物体,物理运算有望在它的带领下逐渐走向普及。可以预见,借助Geometry Shader这一武器,显卡性能将产生质的飞跃,我们也将体验到速度更流畅、画面更精美、情节更细致的游戏。
3.Pixel Shader 4.0
在定义了统一渲染结构之后,DirectX 10中的Pixel Shader也进入了4.0时代。所谓Pixel Shader实际上就是开发人员对GPU进行控制的指令模式。与之前的Pixel Shader 3.0相比,Pixel Shader 4.0中的指令长度被提升到大于64K(即64×1024)的水平,这是Pixel Shader 3.0规格(渲染指令长度允许大于512)的128倍。显然,Pixel Shader 4.0在为渲染出电影级别的游戏画面做准备。图2为Pixel Shader 4.0渲染出的电影级别游戏示意。

由于渲染指令长度大幅提升,Pixel Shader 4.0中相应的寄存器规格也有所增强,如Constant寄存器采用16×4096阵列、TMP寄存器则有4096个、Input寄存器采用16/32规格等,上述指标都比以前的DirectX有明显的改进。其次,Pixel Shader 4.0在纹理数量方面也有提高。DirectX 10允许开发人员在渲染物体时使用128个纹理,而DirectX 9只提供4/16规格,更多的纹理意味着物体表面精度更接近真实,游戏开发人员拥有更广泛的选择。从上述情况不难看出,DirectX 10在性能方面的提升是巨大的,它将进一步解放CPU的资源。当然,我们也必须看到,DirectX 10对硬件(尤其是显卡)的要求也更为苛刻,GPU在设计上也将更加复杂。
二、DirectX时代先行者——统一渲染架构显卡
由于DirectX 10对图形卡的要求相对于DirectX 9有着翻天覆地的变化,所以DirectX 10时代的GPU也有着与所有DirectX 9显卡截然不同的特性。相对于以往的GPU,DirectX 10时代GPU最显著的变化就是彻底抛弃了原有的Vertex Shader和Pixel Shader分离渲染体系,而采用了划时代的统一渲染架构。
硬件中所谓统一渲染架构是与DirectX 10中的统一渲染架构遥相呼应的。在采用统一渲染架构的GPU内部,已经不存在任何的Vertex Shader和Pixel Shader,取而代之的是Stream Processors(流处理器)。GPU内部所有的流处理器都可以执行从前的Vertex Shader和Pixel Shader操作,同时还能支持DirectX 10中最新的定义的几何渲染。由于GPU内部所有的Stream Processors的处理能力以及遵循的指令集都完全相同,所以在运行3D应用时,统一渲染架构的GPU可以动态的调整用户Vertex Shader和Pixel Shader操作以及几何操作的Stream Processor数量的比例,以获得最佳的性能。图3为首个统一渲染架构的GPU——用在Xbox360上的ATI Xenon(C1)。

除此以外,Stream Processors的引入还让GPU的效率获得了极大的提升。由于开发人员不必考虑Vertex Shader和Pixel Shader指令之间的不同,所以GPU内部的各种执行单元完全可以充分调动,从而在各种3D游戏中运行得更快。
在新一代DirectX 10显卡中,NVIDIA公司的GeForce 8800GTX显卡首先问世,这款显卡采用了统一渲染架构,拥有128个Stream Processor和384bit的显存控制器,并且搭配了786MB的显存。在3Dmark06测试中,GeForce 8800GTX的性能近乎是GeForce 7900GTX的两倍之多!如图4所示。

ATi公司尽管比NVIDIA公司落后整整一个季度,但是R600 GPU的性能也不容小看。根据现有消息推测,R600可能拥有96个Stream Processor,并且显存控制器拥有高达512bit的位宽。R600的时钟频率更有可能超过GeForce 8800GTX以弥补在Stream Processor数量上的不足。
三、3D性能助推器——多卡并行技术
随着GeForce 6800系列的推出,NVIDIA公司拿出了酝酿已久的SLi多卡并行技术。通过MIO桥接接口,两块相同的GeForce显卡就能并行工作,从而获得3D性能上的大幅提升。
在SLi技术问世不久,ATi公司也随即着手开发Crossfire多卡并行技术。可惜因为专利限制原因,ATi在很长的一段时间内都必须采用外部连接区分主从卡的多卡并行方案。这样的困境一直到ATi发布Radeon X1950XT才有所改善。
进入2006年,各种支持多卡并行技术的显卡纷纷跳水,许多用户开始购买NVIDIA GeForce 7600GT之类的显卡组建SLi平台。另一方面,支持2条PCI Express ×16接口的主板也不断增加,为用户创造了更多的选择空间。在2007年由于DirectX 10的横空出世,DirectX 10内建的平衡机制可以使得厂商开发出更高效率的多卡并行方案。
与此同时,由于主板芯片组的不断进化,新一代主板已经可以提供2个甚至更多的全速PCI Express ×16插槽,这就让多卡并行技术有了生存的土壤。NVIDIA将会在2007年将超过两卡并行SLi技术推向市场。而在这之前,Quad SLi技术将会成为多卡市场的绝对王者。NVIDIA所谓Quad SLi实际上是由两片GeForce 7950GX2显卡组成。因此Quad SLi需要两个PCI Express ×16插槽。这主要是受限于主板PCI Express ×16插槽有限的原因导致。如图5所示。

但是在GeForce 8800GTX中我们看到这片显卡拥有2个SLi MIO接口,所以NVIDIA很可能会在这片显卡上引入多卡并行方案。在AMD 4×4平台上,我们也可以发现4×4平台拥有4条全速的PCI Express ×16接口。由此可见多卡并行技术即将大步向我们走来。
四、平滑世界再进化——抗锯齿技术
由于GPU处理能力的不断增强,在分辨率受限于显示器无法大幅提升的时候,抗锯齿技术就成了提升画质的捷径之一。为此新一代显卡都在抗锯齿技术方面下了许多功夫。在SLi和Crossfire技术问世之后,多卡并行带来的强大运算能力使得这些系统能够获得更优秀的抗锯齿性能。
1.多卡并行抗锯齿
相对于普通的抗锯齿技术,NVIDIA SLi抗锯齿会从主从卡中分别进行4×、8×抗锯齿取样,然后从卡的数据传输到主卡中做混合处理,从而实现两倍于原抗锯齿的效果。NVIDIA表示,在理论上,SLi抗锯齿的性能与原AA性能相当,例如SLi抗锯齿8×的性能和未启用SLi抗锯齿时的4×抗锯齿性能相当。由于单卡可以最大实现8×抗锯齿,所以SLi抗锯齿最大可以实现16×。对于Quad SLi系统来说,更是可以实现高达32×的全屏抗锯齿效果。在进入多卡并行时代之后,ATi也在Crossfire平台上实现了14×被称作Super AA的全屏抗锯齿效果。
2.超级采样、多重采样抗锯齿
除了多卡并行可以获得惊人的画面质量外,单卡的抗锯齿能力也在不断提升。在很早以前,众多的图形已经开始支持两种抗锯齿技术——超级采样Super-Sampling(SSAA)和多重采样Multi-Sampling(MSAA)。
超级采样简单的说就是对每一个被采样的像素进行更细分的采样和计算。这一做法非常的占用资源(要计算的数据比起原来成倍的增加)。可以理解为这种工作状态实际上相当于在进行更高分辨率的运算之后将画面用低分辨率来显示。图6为超级采样示意图。

由于在绝大部分情况下,对同一物体材质内部进行重复的子采样将可能得到非常相近的色彩,所以对每一个像素进行精确的色彩运算简直就是浪费时间。我们只需要在一定范围内进行色彩取样即可。这正是多重采样的原理。
多重采样在对于像素进行抗锯齿处理之前,首先对于像素的位置进行检测,看其是否位于材质的边缘,对处于材质内部的部分不进行平均处理的方法。所以多重采样抗锯齿对每组上采样只会读一次材质。而对于那些处在物体边缘的像素仍然要由前景色和背景色进行运算后得到新的颜色来进行填充,这些过渡的颜色成功的使得边缘看起来更加平滑。多重采样实际上并没有改善一个使用了透明材质的物体内部的画质。而在最终画面质量方面多重采样也远逊色于超级采样。
可惜由于以前的显卡的运算能力有限,要在合理的速度下完成超级采样简直是天方夜谭。所以画质较弱的多重采样才被广泛应用在各种显卡上。随着显卡性能的爆炸性增长,在执行超级采样时,3D游戏的速度也逐步达到了可玩的程度。ATi和NVIDIA纷纷推出的自适应采样,实际上就是对3D画面进行超级和多重采样的混合采样以提升画面质量。在未来我们不难预测,GPU性能的增长,会使的超级采样抗锯齿方法将会被越来越多人的人所接受,并且开始逐步取代多重采样。
3.透明抗锯齿
无论是超级采样还是多重采样,都无法解决游戏开发者采用透明纹理时的抗锯齿效果。但当今的大量游戏都通过透明纹理来实现树叶或铁丝网效果。NVIDIA推出的透明抗锯齿(Transparency AA)也许是对这一问题不错的解决方法。如图7所示。

NVIDIA把透明抗锯齿的解决方法实际上是通过植入控制纹理的ALPHA通道来实现的。在执行透明抗锯齿时,GPU会每个需要执行抗锯齿的纹理赋予特性的标签。这样在进行超级或多重采样时,这些纹理将会被当作不透明纹理那样进行采样。从而获得优秀的抗锯齿效果。
五、让3D世界更为真实——显卡全面提供物理加速
Ageia PhysX PPU的问世使得物理计算在一夜间为人们所熟知。其实,早在几年前各种3D游戏中就已经被加入了大量的物理运算。我们可以在游戏中用枪击碎玻璃,打飞铁罐这样司空见惯的场面,要实现起来必须借助大量的物理运算才行。
在Ageia PhysX PPU出现以前,几乎所有的物理运算都是通过CPU完成的。这就意味着要保证游戏的流畅运行,开发人员不可能在游戏中加入大量复杂的物理计算。另一方面,包括自由落体、物体运动、空气流动、力的反弹以及各种物体间碰撞检测等基本物理计算,都需要密集的浮点运算支持,用CPU这样的通用处理器来计算如此复杂的浮点应用注定不会获得太高的效率。图8为Ageia PhysX芯片。

为此人们想出了用专门的处理器来完成物理计算的方法。Ageia PhysX PPU就是个相当有益的尝试。在拥有Ageia PhysX这样的专用物理处理器之后,游戏开发人员就可以在游戏中大量的应用各种物理特性,甚至为游戏中的每个对象加上碰撞检测和自由落体等效果。在拥有强大的物理处理能力之后,在未来游戏世界将可以模拟天气,模拟流体,模拟空气中的粉尘,真正做到和现实世界完全一致。
1.NVIDIA的物理加速技术
尽管Ageia PhysX抢先问世,但是却并没有获得极高的销量。相反,Ageia PhysX的问世使得NVIDIA和ATi两大显卡巨头开始对物理加速市场虎视眈眈。要在GPU中或者显卡上加入物理芯片,竞争力显然要比独立的Ageia PhysX高的多。而NVIDIA和ATi更是认为,在GPU处理能力不断增强的今天,物理计算完全可以由GPU来完成,根本不需要额外的硬件帮助!
为了达成这个目标,NVIDIA开始与Havok FX合作,计划通过Havok引擎让自家的GPU应用于物理效果的计算。在最新的Havok FX物理引擎中已经包含了针对NVIDIA显卡设计的物理加速系统。新的物理加速系统可以应用在NVIDIA旗下众多单卡平台和SLi平台上。在单卡模式下,Havok FX物理引擎和Forceware驱动协同工作时,会在3D渲染周期中间加入物理效果的计算,对于3D渲染计算较少的游戏或者是游戏中3D渲染较少的场景,单GPU的计算物理效果还是能给游戏带来很多华丽的效果。但是物理计算必将会导致GPU用于3D渲染的资源减少,因此现阶段采用SLi技术让另外一个GPU单独处理物理计算将会是个不错的选择。图9为Havok FX物理引擎示意。

NVIDIA表示利用SLi技术可以实现10000个物体的物理计算,实现流体、刚体运动、粒子效果、烟雾等效果的模拟。在SLi物理加速系统中,两块显卡里面会有一块用于3D渲染,另一块专门实现物理加速。与此同时,如果该应用不需要物理加速,或者不支持时,SLi系统的两块显卡将会自动恢复到普通渲染状态,实现3D性能的倍增。由NVIDIA提供的数据显示,在一个有15000个石块的场景中,SLi物理加速性能是Pentium 4 Extreme Edition的10倍之多。
在GeForce 8800 GTX显卡中,NVIDIA已经引入了被称作Quantum(量子技术)的物理加速功能。通过GeForce 8800 GTX多达128个Stream Processor,GeForce 8800 GTX强大的运算能力可以轻松的加速各种物理运算。与此同时,GeForce 8800 GTX上的2个MIO接口,也为3卡物理SLi(2片显卡加速渲染,1片显卡负责物理计算)奠定了基础。
2.ATi的物理加速技术
相对Havok与nVIDIA的合作方案,ATi也提出了自己的物理加速方案。ATI认为物理计算对浮点运算以及分支预测要求比较高,而这正是ATi R5XX系列GPU强项。ATi早在R520研发时,就为GPU在通用计算领域和物理加速点奠定了基础。到了R580时代,ATI更是极大的加强了GPU在这方面的性能。图10为ATi物理加速技术示意。

R580拥有高达375GFLOPS(兆浮点运算,Giga Floating point OPerationS)的浮点处理能力,而目前最高端的CPU浮点能力却只有10GFLOPS,而即便是AGEIA物理加速引擎,浮点运算能力也很难超过30GFLOPS,由此可见ATi R580显卡的巨大潜力。与此同时,ATi还在R5XX中内置了专门的动态分支预测逻辑结构,更能够有效的对物理计算进行支持,所以说R5XX的架构设计在物理计算方面将会较为有利。
在ATi的物理加速方案中,各种复杂的物理计算被分成4大类型,即AABB、Sphere、Tetrahedrons、Mesh。其中AABB是最简单的方式,同时通过最简单的立方体碰撞来实现,这种方式对处理要求最低;第二种Sphere(球形碰撞)方式,通过类似球状的模型进行更精细的碰撞处理器,同时在处理资源要求要比Sphere高;第三种Tetrahedrons(四面体碰撞)方式,用在实体表面空间复杂情况;最后一种方式Mesh(网格碰撞)是最复杂的,对处理性能要求也是最高的。
此外,在软件支持方面,目前ATi正在致力于数据并行计算架构提取的工作,主要目的就是要让开发商直接跟硬件打交道,而不一定需要通过Direct3D和OpenGL API来实现,这套工具已经提供给开发商和API开发者,这对于效率来说是更值得肯定的,同时这个架构提取还可以实现其它GPU运用。
值得一提的是,ATi的物理加速方案也支持双卡并行功能,但ATI的双卡对物理加速的支持十分特殊,该技术竟然能够让两块显卡分割图形和物理计算。ATi甚至还表示,在物理加速环境下,用户并不需要两片相同的ATi显卡。也不需要组建Crossfire模式。用户只需要在系统中插入两张ATi X1000系列显卡,其中一片就能够设置成专为物理计算使用的显卡。
最令人惊讶的是,这种计算并不需要在CrossFire模式,也就是说单独的一块显卡可以直接当作物理加速卡使用,两块显卡无需一致,也不用组交火。这意味着现在如果你购买了X1900 XTX,半年后再买了块X2800XTX,也能够让一块显卡用于图形计算,另一块用在专门处理物理计算。由此我们不难看出,ATi的物理加速方案要明显灵活于NVIDIA的SLI物理技术。
六、高清视频迈向普及——H.264 & HDCP
2007年,各种高清节目将会大量上市。众多高清节目所采用的各种视频编码技术(或标准),需要极度强悍性能的CPU来完成流畅解码播放。在众多视频标准之中,应用最多的恐怕将会是H.264。
1.H.264技术
H.264是一种高性能的视频编解码技术。它由ITU和ISO两个组织联合组建的联合视频组(JVT)共同制定的新数字视频编码标准,所以它既是ITU-T的H.264,又是ISO/IEC的MPEG-4高级视频编码(Advanced Video Coding,AVC),而且它将成为MPEG-4标准的第10部分。
H.264最大的优势是具有很高的数据压缩比率,在同等图像质量的条件下,H.264的压缩比是MPEG-2的2倍以上,是MPEG-4的1.5~2倍。举个例子,原始文件的大小如果为88GB,采用MPEG-2压缩标准压缩后变成3.5GB,压缩比为25:1,而采用H.264压缩标准压缩后变为879MB,从88GB到879MB,H.264的压缩比达到惊人的102:1!
H.264为什么有那么高的压缩比?低码率(Low Bit Rate)起了重要的作用。与MPEG-2、MPEG-4 ASP等压缩技术相比,H.264压缩技术将大大节省用户的下载时间和数据流量收费。尤其值得一提的是,H.264在具有高压缩比的同时还拥有高质量流畅的图像。
尽管H.264有着众多诱人的特性,可是要流畅回放H.264视频就不是件容易的事情。回放H.264不仅需要软件上的支持,还需要极高的CPU性能才能流畅的将视频播放出来。对于市场上众多的CPU来说,流畅播放H.264视频的难度相当大。如果显卡在此时提供硬件加速功能,那在回放高清视频的过程中不仅画面质量将会明显提升,CPU占用率也会随之降低。为此,NVIDIA的PureVideo和ATi的AVIVO都在这方面苦下功夫,纷纷推出了针对H.264硬件解码的功能。NVIDIA更是将PureVideo升级到了PureVideo HD。在未来我们不难看见,各种硬件视频加速解码的功能将会越来越强大。
2.HDCP版权保护技术
由于高清视频HDCP版权保护措施的全面推进,新一代的显卡也将会全面内置HDCP数字视频加密方案。HDCP(High-Bandwidth Digital Content Protection,高带宽数字内容保护)是由业界巨头Intel连同几大制片商联合制定的针对高清视频内容回放过程中的版权保护技术。根据业界的规定,要在电视或者显示器支持HDCP,同时播放器也支持HDCP的情况下,用户才能观赏到高清晰度的视频节目。其中如果有一样设备不支持HDCP,那用户就只能看到被降低清晰度的视频。
事实上,HDCP技术就是一个对DVI/HDMI等数字接口信号进行加密的技术。一旦这些接口输出的信号被加密,那用户是无法直接将高清视频信号录制下来,供日后观看。用户所能得到的只是一些标准清晰度的画面而已。图11为HDCP示意。

既然HDCP是对信号传输过程的加密,那就意味着要回放HDCP保护的高清视频,就必须和上图表示的那样,在发送端和接受端的TMDS中分别具备HDCP内容的加密和解密功能。
事实上,在HDCP的运作过程中,发送端和接受端设备中都将会有个ROM存放出厂时分配的可用密钥集,这些密钥在被装入HDCP支持的产品之后就无法再次修改。HDCP设备也正是通过这个密钥对传输的数据进行加密和解密。在加密端完成对视频流数据的加密并且传输给接受端之后,接受端将会根据密钥进行数学运算,同时在运算中还将加入一个特别的值KS(视频加密密钥),最终获得完整的高清晰度的视频内容。由于无法在后期追加,所以新一代显卡要良好回放高清视频,搭载HDCP功能就成为了必然。
七、显示接口改朝换代——UDI & DisplayPort
如今,显卡和显示器已经开始全面转向DVI接口,但是业界已经将淘汰DVI接口提上了议程。在众多的标准争夺者中,UDI、DisplayPort接口有望成为DVI的接替者。
1.UDI接口
UDI(Unified Display Interface,统一显示接口)标准是由Intel和NVIDIA等公司组成的“UDI特别利益组织(SIG)”推出的针对个人电脑和服务器等设备的全新显示器接口规范。UDI在问世之初,目标就是取代DVI、D-Sub成为笔记本电脑、工作站、PC显示器的显示接口的事实标准。
UDI吸收了被大量应用在家庭影音设备上HDMI接口的众多特性,这其中包括了对HDCP加密技术的支持等。因此,采用UDI接口的显示设备可以很好的与HDMI接口兼容,并且提供强大的版权保护功能。由于HDMI主要针对影音产品,UDI主要面向PC市场,所以这两个标准的关系更多的是互补而非竞争。图12为UDI接口。

相对于HDMI,UDI主要改进包括增加了灵活的基于PCI Express和HDMI的TMDS的高带宽技术、使用更为简单低成本的接口等。由于采用了单向传输设计,所以UDI是单向高带宽信号输出(最大分辨率2560×1600),因此接头外观也有所不同,分为Source和Sink两种,分别连接输出和输入设备。UDI标准目前的版本为0.8,SIG计划到明年第二季度完成该标准的1.0正式版。
2.DisplayPort接口
相对于UDI的改良,DisplayPort将会彻底颠覆原有的包括HDMI在内的各种显示标准。DisplayPort标准由VESA组织提出,如今已经获得了包括ATi、NVIDIA在内的众多厂商的支持。DisplayPort与其他显示接口标准相比最为突出的恐怕就是他的惊人带宽!DisplyPort接口拥有超过10.8GBps带宽,足以轻松传输各种高清视频数据。除此以外,DisplayPort在传输协议上采用了与之前任何显示接口标准都完全不同的微封包架构(Micro-Packet Architecture)。而之前无论是DVI还是HDMI等标准都采用的交换式传输,视频内容以即时、专线方式传送。图13为DisplayPort接口。

微封包架构最为明显的优势在于其灵活性。DisplayPort可以在同一组Lane/Link内传输多组视频,反之交换式传输就得限定一组Link只能传输一组视频,此外也能轻易地在既有传输中追加新的协议内容,特别是内容防拷协议。除此以外,DisplayPort还可以轻易的输出更高色彩精度的视频信号。第一版Display即可支持48bit色彩进度的输出,而当今DVI、HDMI接口只能输出30bit色彩进度而已。