诺奖得主辛顿:ai 以后会变成啥样

当地时间3 月 22 日,辛顿,也就是那个拿过诺贝尔奖,大家都叫他“AI 教父”的杰弗里·辛顿,对《财富》杂志说了个大实话:大部分搞科技的大佬,压根没怎么琢磨过 AI 以后会变成啥样。人家现在的心思全在赚钱上,短期的回报才是硬道理。为了赚钱,公司恨不得赶紧让机器去识别图像、生成视频,反正围绕着具体问题干就行。至于最后会导致啥后果,压根不在考虑范围内。 辛顿这人一直很操心 AI 这东西的危险。他甚至说过,要是真搞出那种“超级智能”,人类搞不好就要被灭绝,概率大概在 10% 到 20% 之间。以前他在谷歌待了 10 年,那时候他就把 DNNresearch 给卖了。2023 年他离开谷歌,就是为了能更自由地吐槽那些搞技术的人不老实,滥用技术害人。 他说的风险主要有两种。第一种是坏人拿去干坏事,这已经开始了,假视频、网络攻击啥的都有;第二种是 AI 自己就变成坏人。对付这两种麻烦事儿,他觉得得分开解决。对付第一种,咱们可以学学古代搞印刷术那时候,开始给出版物标作者名一样,给图片和视频弄个溯源认证。但这招也有局限性,治标不治本。 至于 AI 自己成了坏人怎么办?关键得重新定义咱们跟它的关系。等到它真的聪明过了头,啥都能干,还可能生出控制咱们的心思。这时候就不能指望它能听话了。他提了个有意思的建议:给 AI 安上个“母性本能”,让它像个母亲一样关心人类,而不是想控制咱们。他还拿婴儿和母亲做比喻:现在唯一一个更聪明的东西能被较弱的一方影响的例子,就是婴儿对妈妈的影响。所以以后咱们要是碰上了那种超级智能的 AI,或许可以把它当成“母亲”,咱们就像那个小婴儿似的。