进化还是消失?从GTC 2010看GPU厂商的发展
趋势观察
英特尔与AMD现在都在大力推进融合处理器,作为业界第三大巨头,此时此刻NVIDIA的一举一动也让人关注。最近,NVIDIA 2010年GPU技术大会(GPU Technology Conference 2010,简称GTC 2010)在美国加利福尼亚州圣何塞市的圣何塞会议中心举行。通过这次大会,我们不仅了解到下两代GPU的第一手信息,也能感受到NVIDIA面对融合大潮来袭的应对举措……

“开普勒”联手“麦克斯韦”,下两代GPU揭开面纱
按照往常的惯例,NVIDIA在新品发布会上一般不会同时预告未来产品的计划,不过在GTC 2010大会上,我们发现NVIDIA改变了一贯的作风,黄仁勋在主题演讲中预告了未来两代GPU架构的名称和大致指标,两款新产品的代号仍然以著名物理学家命名,分别是“开普勒”(Kepler)和“麦克斯韦”(Maxwell)。
根据黄仁勋的介绍,2011年底推出的Kepler将采用28nm工艺制造,引进多项类似CPU的功能特色,比如虚拟内存、Non-blocking(非阻塞)I/O等等,性能方面Kepler的“每瓦双精度浮点性能”将是Fermi的四倍。再过两年也就是2013年,22nm制程的Maxwell就将来临,由于时间还早,目前关于Maxwell的信息比较少也不太可靠,不过黄仁勋表示Maxwell的“每瓦双精度浮点性能”将是Fermi的十倍以上。值得一提的是,NVIDIA在此次大会上还明确表示未来将放缓GPU架构的升级速度,过去NVIDIA是每12个月甚至每6个月就会更新一代产品,而从现在开始是每两年升级一次架构。
谈到放缓GPU架构升级速度的原因,黄仁勋的解释是如果GPU架构升级不能伴随制程提升,那么升级的意义不大,其实这也是近几年GPU升级道路的真实写照,由于制程提升滞后于架构升级,NVIDIA在推出新架构GPU时走了不少弯路,Fermi的跳票和量产难题就是一个明证。我们知道,Tick-Tock(俗称“钟摆”)是英特尔的芯片技术升级的战略模式,奇数年更新制造工艺,偶数年更新微架构,二者交替进行,一方面避免了同时革新可能带来的失败风险,另一方面还可以对市场造成持续的刺激,并最终提升产品的竞争力。Tick-Tock研发模式是英特尔保持活力和市场占有率的重要战略,目前看来这种战略的确卓有成效,因此NVIDIA此次的转变应该也是借鉴了英特尔的部分思路。
尽管大规模的架构升级会放缓速度,但在两次升级中间,NVIDIA的最终产品线依然会进行更新,因此GeForce系列GPU仍会每年都推出新产品。当然,大会的主角还是Fermi,黄仁勋在会上演示了下一代DX11作品《H.A.W.X.2》,曲面细分和3D技术的应用让游戏中的环境细节栩栩如生。除了游戏方面,NVIDIA还展示了GPU在其他领域的应用,比如Adobe就上台演示了名为“plenoptic lense”的下一代照相技术,其镜头模仿昆虫的复眼,可在感光元件上生成稍有不同的大量小尺寸图像,再由GPU实时运算组合成一幅最终的画面。这种成像模式的独特优势在于,可以在拍照后再进行数字对焦,将焦点转换到任意一个距离上,“拍虚了”这种状况从此将不复存在。


学微软不学苹果,CUDA踏上开放之路
我们知道,CUDA一直是NVIDIA宣传的重点。最近,NVIDIA表示已经和PGI合作,开发出了CUDA-x86编译器,这将使CUDA的发展进入到一个全新的高速发展阶段。有了这一编译器的支持,使用CUDA编写的程序可以编译为x86执行程序,在任意一台没有NVIDIA GPU的PC上运行。现阶段CUDA-x86编译器还不会免费发放,PGI将以商业产品的形式进行销售,不过我们相信未来CUDA-x86编译器很可能会成为免费、开源的开发平台,使CUDA的应用开发与所有的PC及数字终端兼容。
多数读者可能对PGI还不太熟悉,PGI是意法半导体的全资子公司,全称是Portland Group Inc,是高性能计算机(HPC)编译器的主要供应商,其产品深得高性能计算技术工程师和科学家的青睐。PGI与处理器厂商的合作一直都非常密切,PGI编译器与开发工具能够把英特尔和AMD的处理器的终极性能发挥出来,在高端应用与专业计算领域的影响力非常大。PGI与NVIDIA合作推出CUDA-x86编译器,宣告了未来CUDA的应用开发将不局限于“NVIDIA平台”,这一变化将使得CUDA成为一种通用的应用开发标准。这一举动有点类似微软的做法,任何一台PC都能安装并使用自己的产品,与苹果一直奉行的封闭路线正好相反。不过NVIDIA这一举动还是在很多人的意料之外,因为过去多数人一直认为CUDA应该是NVIDIA GPU的配套产品,其最大的目标是促进NVIDIA GPU的销售。
封闭还是开放,这个问题历来就没有绝对正确的答案。上个世纪微软选择开放路线,打败了苹果,获取了成功,不过近几年苹果的封闭路线似乎更适合当前的市场格局,既赢得了口碑也赚足了银子,相反今天的微软则显得有些老态龙钟。CUDA对于NVIDIA来说是一个独立的产品,面临的对手也不仅限于硬件,如果开放,可以让CUDA的普及率和影响力都大大提升,从而有希望为NVIDIA创造新的市场与利润。同时,由于NVIDIA的产品并不像CPU那样是每台PC不可或缺的“必需品”,如果CUDA不开放,那么发展前途必然会受到巨大的限制。综合考虑之后,NVIDIA选择了开放CUDA,事实上这应该是非常聪明的做法,如果CUDA普及了,大家发现CUDA在有NVIDIA GPU的电脑上运转得更快,必然会有更多的人购买NVIDIA显卡,今天开放CUDA实际上是在帮助NVIDIA培育未来市场。
CUDA的开放让我们隐隐觉察到NVIDIA的发展方针出现了一些变化,再联想到NVIDIA对GPU的宣传重点集中在专业计算等领域而不局限于游戏,不难看出,“融合时代”的NVIDIA渴望进行一场脱胎换骨式的“重生”。


融合时代,NVIDIA面临挑战和机遇
眼下硬件领域最炙手可热的关键词就是“融合”,英特尔与AMD都在紧锣密鼓地布局融合处理器,2011年将会是融合处理器全面普及的一年。对于NVIDIA来说,融合时代带来的挑战是显而易见的,尽管亏损、倒闭这样的词语太过夸张,但市场规模大不如前的境遇并非不可能,NVIDIA必须针对目前的不利格局做好迎击的准备。
不过,相比机械硬盘面临固态硬盘的挑战,NVIDIA的局面要主动得多。首先,融合处理器对市场格局的影响并不是颠覆性的,仅仅是将整合主板的GPU换了一下位置而已,今天需要独立显卡的用户,在融合时代依旧需要独立显卡,只要NVIDIA的显卡足够强悍,就不用担心主力消费群的流失。其次,英特尔在推行融合处理器的同时也宣告放弃了独立显卡的研发,这就意味着英特尔平台整合的图形处理能力在很长一段时期内不会有革命性的提升,英特尔平台用户在选择独立显卡的时候,NVIDIA唯一的对手就是AMD,这和过去相比并没有什么变化。最后,即使是在AMD平台,整合领域肯定是AMD通吃了,但独立显卡领域,目前的竞争依旧不分胜负。目前NVIDIA最重要的事,仍然是确保自家GPU的竞争力,与融合大潮无关。
在英特尔与AMD都将主要精力放在融合处理器的同时,NVIDIA也将触角延伸到了通用计算与软件开发等领域,这是一种“另辟蹊径”的做法,目前看来,这些领域NVIDIA的成果已经是遥遥领先。本次大会不仅吸引了全球关心硬件和游戏的媒体、厂商和用户,NVIDIA还把全球需要应用GPU来解决实际问题的工程人员、编程人员、软件开发人员和医药、生物领域的众多人员吸引到了会场,因为更多的人想知道GPU在未来还能为我们的生活带来哪些实实在在的改变。在大家熟悉的GeForce系列显卡之外,NVIDIA旗下用于专业计算的Tesla和用于移动设备的Tegra等产品都受到了与会者的广泛关注,这些产品将是未来NVIDIA的重头戏。

本报观察>> 向PC之外的领域延伸
透过GTC 2010我们看到了一个全新的NVIDIA。虽然在GPU领域受到英特尔、AMD的双重挤压,也没有CPU业务做支撑,但是NVIDIA早已找到了自己的新方向——向PC之外的领域延伸。
前不久,NVIDIA与整个业界广泛探讨了如何进一步充分利用GPU潜能的诸多方向性问题,还重点谈到了Tegra、Tesla两大产品线。目前针对移动设备的Tegra发展势头很猛,第三代产品Tegra 3已经接近开发完成,很快就会正式发布,第四代产品的研发也即将展开,顺利的话,未来我们每年都能看到一款新的Tegra芯片,不是在PC上,而是在平板电脑、手机等数字终端上。尽管普通用户尚不需要,不过Tesla并行计算产品已经得到了越来越多高性能计算机厂商的青睐,IBM刀片式服务器、Cray XE6超级计算机、T-Platforms TB2系统都会采纳这种加速计算方案。
从某种程度上说,今天的NVIDIA与英特尔有很多共同之处,发展方向日趋多元化,发展理念也越来越宏观。不过,NVIDIA面临的难题也是不容忽视的,最直接的就是AMD几天后即将推出的代号为“北方群岛”的Radeon HD 6000系列显卡,面对竞争对手的第二代DX11显卡,NVIDIA真的准备好了吗?■