咱们先聊聊手机触摸屏的事儿,以前的屏幕其实特别“笨”,它顶多就是个传话筒,告诉你手指按了下去,但怎么按下去的,那个手感是啥,屏幕完全搞不懂。现在大家都要求设备“知冷知热”,光看图片不行,得让指尖也能感知到东西的真实质感,这样才能让虚拟世界活起来,也给耳朵和眼睛减轻点负担。 比如你在网上买沙发,盯着图片猜材质太费劲了。现在有个新玩法叫“3D触感”,你点一下那个按钮,手机摄像头先给你身旁的旧沙发拍个照。算法马上就能算出一张一模一样的虚拟坐垫给你放屏幕上。你把手放上去轻轻一摸,就能先感受到布面那种纤维的粗糙感;接着往下压,手机会给你模拟海绵弹回来的那种阻力;最后真的坐下的时候,屏幕甚至能告诉你沙发塌陷了多少、回弹得快不快。这一连串的反馈操作下来,“看图猜材质”就彻底成了历史,线上购物现在也能像线下那样试坐了。 这玩意之所以这么火,主要是因为现在的人都不爱瞎买东西。调查发现,大概70%的人因为摸不着所以不敢下单。要是指尖能直接告诉你材质怎么样,这转化率立马就能涨30%以上。退货率也会下降不少,再也不用担心到手的东西颜色看着不错但硬得像木板了。而且就算没法亲自去店里看,用户也能在家通过这种触感先“预演”一下把新沙发搬回家的感觉。 那手机到底是怎么做到让你有这种手感的呢?目前主要有三种方法。一种是超声波阵列,就是在屏幕底下埋一堆小换能器,通过发波接收的时间差来算不同东西的回弹情况。还有一种是压感薄膜,直接在玻璃盖板下面贴一层能变形的膜,手指头一按变形了传感器就能读出多少力。最后一种是空气动力反馈,在屏幕边上安个小气泵,手指头一离开就喷点气出来吹吹你。 这三种方法各有各的优点缺点:超声波最精准但费电;压感膜便宜但太软或太硬的东西做不出来;气流最省电但喷的速度和方向不太好控制。以后估计会搞个混合方案:用超声波高精度识材质,压感膜给基础的阻力感,最后再用气流给你吹吹风增加点细节。 除了买东西更爽之外,这种触觉技术还能搞出更多花样来。比如说远程上课的时候,学生隔着屏幕就能摸到化学实验里硫酸那种刺手的温度;生病在家做康复训练时戴上虚拟手套就能感受到肌肉收缩的劲儿;打游戏的时候握紧宝剑能感到金属的凉冰冰。当“能摸得着”变成了数字世界的标配,人机交互就能进入多感官共生的时代了。 从以前的被动接收信息到现在主动反馈刺激,这项技术正在悄悄把冷冰冰的玻璃变成会呼吸的皮肤。下次你滑动手机时手指头微微抖一下——你摸到的已经不是空气了,而是柔软的羊绒、冰凉的金属或者弹性十足的海绵。虚拟与现实之间的那条裂缝,正在一点点被填满。