看你的“眼色”

专栏

50-a10-1.jpg
猛犸,科学作者,宅属性。关注信息技术及其对生活带来的影响。

向电脑传达你的所思所想,只需要使一个眼色。

人们能够很好地识别别人的眼色,有些小动物也可以。一个眼神就可以让人理解自己的目的,要是让计算机也能够通过视线来控制,将会省许多事。不仅那些残疾人可以更加方便地使用电脑,飞行员、驾驶员或者外科医生等等往往腾不出手来的用户,也可以更加容易地获得他们需要的信息。

早在19世纪,人们就发现,视线不是平滑移动的。它更像是跳跃的,在大约只有0.1秒的注视后,从一个点跳跃到另一个点。其过程就像是我们在同一个地方对着不同方向拍了几张照片,然后再把它们拼成一张更大的照片一样。我们的大脑会帮我们把这些图像拼合起来,感觉好像我们的视线是平滑运动的,而感觉不到这两者之间的区别。

这一发现,展示出了使用视线来控制机械设备的可能。我们使用视线来控制光标,当注视某一点时间较长时,就相当于点击,而如果配合上眨眼的动作或者键盘的按键。

理论上既然没问题,接下来就是技术问题。如何确定视线中心对应在屏幕上的点——也就是光标所在位置——就成了最迫切的需求。从19世纪70年代开始,人们就尝试使用各种各样的设备,甚至包括可以戴在眼球表面的金属薄片。到了今天,人们已经有了不少方法来判断瞳孔的位置,进而模拟计算出视线落在屏幕上的精确点。最简单的例子是使用家用摄像头:首先判断面部的位置,然后通过虹膜和瞳孔的颜色差计算出瞳孔的位置,并且根据距离计算出瞳孔中心指向的屏幕位置。

上世纪70年代以后,视线跟踪技术迅速发展起来。2000年5月,斯坦福大学完成了一项使用眼动仪跟踪用户使用网页的行为的研究,以此拉开了使用视线跟踪来分析用户浏览行为的序幕。现在的眼动仪作为一种常用的跟踪和分析设备,在用户使用计算机、浏览网页方面,已经广泛应用于用户体验的研究。但眼动仪更多是作为一种记录设备,而不是操作设备存在,它对视线焦点的位置,仅仅是记录而已。

2002年5月,英国伦敦帝国大学开发了一种叫做“眼标”的全新设备。使用视线来控制鼠标指针,当用户注视某个点超过1秒时,就认为执行了一次单击。随着技术的不断发展,到了去年5月,英国蒙特福德大学的研究者们让四肢瘫痪者可以使用电脑,不仅可以浏览网页,甚至可以玩像《魔兽世界》这样的游戏。其原理是在屏幕边缘设置两个近红外线摄像头,以此来精确区分瞳孔和虹膜部分——通过两个近红外线摄像头获取图像的位置差,可以将瞳孔的位置定位得更加精确。

现在市场上已经有了些使用这种技术的计算机控制设备,成本最低的只需要一个专用软件和一个摄像头就可以完成,精确度可以达到0.5厘米之内。

德国夫琅和费协会下属的位于德累斯顿的光电微系统研究所打算更进一步,推出将摄像机和屏幕结合在一起的设备。他们尝试将CMOS像素和OLED像素交错放置,以开发出一种可以佩戴的、可以使用视线控制的新型显示器。

现在我们的手机摄像头中,绝大部分使用的是CMOS感光器件。每个像素自带信号放大转换器,是这种感光器件和相机使用的CCD感光器件之间最大的区别。它比CCD省电,但是成像效果不如CCD——对于视线跟踪来说,也算是够用了。再加上有机发光二极管来作为显示装置,你看着这块屏幕,屏幕同时也在看着你。终于,人可以和显示器“大眼瞪小眼”了。

考虑到OLED可以制作成透明显示器——在今年国际消费电子展上,我们就看到了14英寸透明屏幕的三星笔记本电脑——也许这种显示设备最终可能会以太阳镜的外观出现在我们面前。虽然它不太可能替代现有的计算机输入装置,但是用来做一些简单的控制,比方说控制随身电子设备的音量或者控制电影的播放,应该是最合适的领域。

不过不幸的是,这种设备离上市还有一段时间。现在这种显示屏只达到了320×240的分辨率,而CMOS像素数量也严重不足。技术问题相对而言,还是比较好解决的;如果有电子消费品大厂对这种显示器感兴趣的话,我们有可能在两三年后的CES上看到它,然后再过两三年,才真正可以从商店中买到吧。