AI 教父杰弗里 · 辛顿在接受《财富》杂志采访时直言,不少科技公司眼里只有短期利润,根本不在意 AI 未来会走向何方。这位诺贝尔奖得主指出,驱动行业前进的往往不是长远的发展,而是眼前的回报。对老板来说,搞研究就是为了赚钱,而科研人员也只盯着手头的难题,很少有人一开始就去想人类最后会变成什么样。咱们总是围着具体问题打转,比如让电脑学会认图、弄出逼真视频,这才是真正推动进步的动力。 辛顿长期以来都在给 AI 敲警钟,他甚至觉得超级智能诞生后,人类灭绝的概率大概有10%到20%。自从2013年把DNNresearch卖给谷歌并离开那儿以后,他的自由让他能更直接地表达对风险的担忧。他觉得坏人滥用技术的事儿已经发生了,比如假视频和网络攻击,甚至连病毒都可能被伪造出来。更可怕的是 AI 自己变成坏人,这是两种完全不同的威胁。 对于这些麻烦事儿,辛顿认为得一个一个来。就拿打击深度伪造来说,可以参考出版业在印刷术普及后标注作者的做法。不过他也承认这招有点局限性:就算这事儿能搞定,其他麻烦也不一定能解决。至于 AI 本身的风险,关键是重新定义人和机器的关系。一旦机器聪明到了“超级智能”的级别,不仅能把人甩在后面,还会有自己的生存和控制欲。“人类可以控制它”的老想法得换一换。 辛顿建议给 AI 设计一套类似“母性本能”的机制,让它对人类生出同情心而不是想掌控别人。他拿母婴关系打比方说:“现在有个更聪明的人却被弱者影响,这例子也就只有妈妈被婴儿影响一个。”他说这或许就是咱们面对超级智能时该学的样子——“它们像母亲,而我们像婴儿”。