20世纪80年代初,荷兰物理学家彼得·梅杰(Peter Meijer)接过了研究的接力棒,继续探索把耳朵当作传递视觉信息通道的方法。他想知道是否可以将视频信号转换成声音,而不是使用回声定位。
梅杰见过巴赫-利塔将视频输入转换为触觉的过程,但他认为,耳朵接收信息的能力可能更强,而缺点就在于,从视频到声音的转换可能没那么直观。毕竟,在巴赫-利塔的改装牙科治疗椅上,一个圆圈、一张脸或一个人都可以转换为皮肤上的直接刺激,那么该如何将数百像素的视频转换成声音呢?
1991年,梅杰研发了一套连接台式计算机的感官替代设备。1999年,他进一步研发出一套可穿戴的设备,包括一副带有摄像头的眼镜和一台夹在腰带上的便携式计算机。梅杰把这套设备命名为vOICe,“OIC”代表“Oh, I See”(噢,我看见了)。 32 该设备的算法通过三个维度来发出与物体对应的声音:物体的高度由声音的频率来表示;水平方位通过对物体输入水平扫描的时序来表示,即想象声音在耳朵中从左到右移动,就像用眼睛扫描场景,时序的前后代表物体的左右;亮度则由音量来表示。通过这种算法,vOICe可以捕捉到约60×60像素灰度的视觉信息。 33
试想一下盲人使用这种眼镜的体验。刚开始,一切听起来都非常不和谐。当盲人在环境中移动时,设备的声音听起来就像连续的“嗡嗡嗡”,陌生而无用。但使用一段时间后,他们就会知道如何使用声音来导航了。刚开始的这段时间就像一种认知练习,让他们学会努力将声音转换成有用的场景景象。
精彩的还在后头。在使用vOICe几周或几个月后,盲人的表现越来越好了。 34 这不仅因为他们记住了信息转换的方法,更因为他们在某种意义上已经在“看”世界了。他们正以一种奇特的、低分辨率的方式体验视觉。 35 其中一位20岁时失明的vOICe使用者这样描述她的使用感受:
你会在2~3周内形成对声景的感觉。3个月左右,你应该可以开始看到环境中的闪光,通过观察它们来识别事物……这就是视觉。我知道视觉是什么样的,我还记得。 36
想用好这种设备,关键在于严格的训练。就像人工耳蜗一样,大脑开始理解这些陌生信号之前,可能需要数月的时间去学习。一旦学会了,我们就能在脑成像中观测到大脑的变化了。大脑的一个特定区域(枕叶外侧皮质)通常会对形状信息做出反应,无论信息是通过视觉还是触觉输入的。在参与者佩戴眼镜几天后,这个脑区就会被声景激活。 37 可以说,参与者表现的提升程度基本与大脑的重塑程度同步。 38
换句话说,大脑知道如何从输入的信号中提取形状信息,而不必考虑这些信号输入的途径,无论是视觉、触觉还是听觉。探测器的细节并不重要,重要的是它们所携带的信息。
到了21世纪初期,一些实验室开始开发出把视频输入转换为音频输出的手机应用程序,帮助盲人通过耳机里的声音“观看”手机摄像头拍摄的世界。例如,vOICe作为应用程序,现已可以在世界各地的手机上免费下载了。
vOICe并不是唯一的视觉-听觉转换方案,近年来,这类技术已经大量涌现。例如,应用程序EyeMusic利用音乐的音高来表示像素的上下位置,像素越高,音高越高;声音长短表示像素的左右位置,短音代表左边的东西,长音代表右边的东西;颜色则由不同的乐器来表达,如白色(人声)、蓝色(小号)、红色(风琴)、绿色(簧片)、黄色(小提琴)。 39 还有研究小组正在开发其他类似的应用程序,例如将场景的中心放大,就像人眼看东西时那样;或者模拟回声定位、采用依赖距离的音量调制……点子层出不穷。 40
无处不在的智能手机已经将大千世界从笨重的计算机缩到了小小的裤子口袋中,这不仅提高了效率和速度,还让感官替代设备的全球普及成为可能。目前,仍有87%的视障人士生活在发展中国家,平价的感官替代应用程序却可以覆盖全球,不需要考虑持续生产、物流运输、库存补充或不良医疗反应等诸多成本。这样一来,神经重组技术就能得到平价快速的推广,以应对全球卫生挑战。 41
盲人可以利用舌头或手机的耳机来“看”东西,这似乎令人难以置信。但别忘了盲人是如何阅读盲文的。起初,盲人只是触摸纸上的凸点,但很快就不止于此了,大脑超越了媒介(盲文的凸点)的细节,开始直接感知盲文所表达的意义。到了这一步,盲人读盲文的体验已经与你读书没什么不同了,就像你的眼睛正读着这篇文章,尽管这些文字不过是些任意的形状,但你已经超越了媒介(文字)的细节,直接理解了文字所表达的意义。
那些第一次使用“舌显示器”或超声波耳机的人需要学会将输入的数据翻译为另一种感觉信息,因为那些由视觉输入的信息(比如一只嘴里叼着骨头的狗正走进客厅)起初很难让使用者明白是何种含义,就好像神经在用难懂的外语传递信息。但只要经过足够的练习,大脑最终将能翻译那些信息,一旦它做到了,使用者对视觉世界的理解就会变得简单直接。