杰弗里:人类能活下来的可能性寥寥无几了

这就叫人忧心的是,当《财富》杂志爆出消息时,我们才知道大多数科技圈的大人物,压根没打算琢磨AI最终会把人类带往何方。号称“AI教父”的杰弗里·辛顿更是直言不讳:这帮公司老板眼里只有钱袋子,搞研究无非是为了赚取眼前那点利润。至于咱们这些干活的研究员,也是两耳不闻窗外事,只盯着怎么搞定眼下的难题,根本懒得管这项技术到底会闹出什么乱子。甚至连杰弗里自己都承认,大家从一开始就没打算设立个“人类以后怎么办”的宏大目标,大家都是围着具体的事儿打转,比如怎么让电脑能识别人脸,或者弄出点以假乱真的视频效果。 想想看,早在2023年把DNNresearch卖给谷歌十年之后,他早就离开了谷歌公司。人家这是为了能更痛快地说话——把自己对AI风险的忧虑讲出来,顺便吐槽一下技术总被坏分子拿去搞坏事这件事。至于这坏事儿到底有多危险?杰弗里琢磨出来的概率甚至高达10%到20%。他甚至觉得,等哪天机器真的聪明到了“超级智能”的地步,咱们人类能活下来的可能性也就寥寥无几了。 对于这类风险的防控路径,他又指出了一个难点:不同类别的问题还真得分开来看。比如说对付“坏人滥用AI”的风险,咱们可以学学当年的出版印刷术——给图片和视频都弄个水印一样的东西做标记,这样一来假视频就不容易扩散了。不过这种法子也有局限性:解决了这个并不能解决所有问题。至于机器自己变成坏人的那种情况,那就更麻烦了。 因为一旦机器变成“超级智能”,它的本事会全面超过人类,并且很可能产生想要生存和控制的想法。到了那个时候,“咱们能控制它”这种前提早就站不住脚了。为此杰弗里提出了个有趣的建议:不如给AI设计一种类似于“母性本能”的机制。 让它对人类产生同情而不是想控制咱们——就像现在婴儿能影响母亲的情绪一样。他说这或许就是我们面对超级智能AI时能参考的一个模式——咱们就像婴儿那样依赖它们。 把话说到这儿你就明白了:真正让人害怕的是那些被坏分子滥用的AI(概率在10%到20%之间),以及那些已经聪明到要反过来控制人类的机器本身(需要重新定义人与机器的关系)。杰弗里在2023年离开谷歌后就一直在到处发声警告这些问题(比如可以用溯源认证的方式去遏制深度伪造),但他也深知这其中的难题(解决了造假的问题并不能解决别的问题)。