“ai 教父”辛顿:现在的行业风都往哪儿吹,全看怎么让手里的钱赚得多快

“AI 教父”辛顿曾经直言,科技公司只盯着眼前的利益,根本没心思去管 AI 长期会有啥影响。这帮行业大佬多数压根没想过 AI 以后到底会变成啥样。作为拿过诺贝尔奖的杰弗里·辛顿认为,现在的行业风都是往哪儿吹,全看怎么让手里的钱赚得多快。他解释说:“对老板们来讲,驱动研究的就是短期利润。研究人员也是一样,看的是现在眼前的活儿咋样,而不是研究到最后到底能给咱带来啥结果。咱们也不会一开始就定个‘以后人类咋办’这种大目标,都是围着具体问题转,比如怎么让机器认图,或者弄出逼真的视频,这才是真正能让人干活的动力。”他一直喊着 AI 的风险很大,觉得等技术真做成了超级智能,把人类给整灭绝的概率可能就在10%到20%之间。2023年,把DNNresearch 卖给谷歌差不多十年后,他就离开了谷歌,就是为了说话更自由些,好直接把 AI 的风险亮出来,也顺便提点大家别让技术落进坏人手里。 至于风险是啥样的,他分了两类来说:“一类是坏人为了啥滥用 AI,这种情况早就有了,像假视频、网络攻击甚至可能搞病毒;还有一类是 AI 自己成了坏人。”要应对这些问题的难处在于每种情况都得单独来解。比如对付假图假视频,可以给它们打上标签,就像古代出版书得写作者名一样。可这招也有局限性:“这问题可能能搞掂,但搞掂了这个不代表别的问题也能搞定。” 说到 AI 自己的风险,关键得重新琢磨琢磨人和机器的关系。一旦到了超级智能那个坎儿上,不光能力超过人了,脑子里还会冒出想活着或者想控制别人的念头。到时候那种“人能控制 AI”的想法就彻底站不住脚了。 他觉得可以给 AI 设计个类似“母性本能”的机制,让它心里对人只有同情心没控制欲。他还拿母婴关系打了个比方:“现在唯一比我们聪明但还能被弱者影响的情况,也就是妈妈带孩子的事儿了。”所以咱们面对超级 AI 时或许能学学这个模型——让 AI 像妈妈一样,咱们就像宝宝那样跟着混就行。