“AI教父”辛顿提醒说,眼下大多数科技公司眼里只有钱,根本不考虑AI未来会带来啥大影响。IT之家3月23日带来消息,据《财富》杂志讲,3月22日,杰弗里·辛顿对科技行业领袖的态度提出了质疑,他觉得这帮人压根没想过AI到底会怎么走。这位诺贝尔奖得主和AI界的“大佬”表示,现在的驱动力全是为了短期收益,根本没人关心长期的事儿。辛顿对《财富》直言:“公司老板们是为了利润才搞研究,科学家们也是为了解决眼前的麻烦,谁也没想着为了人类的未来去设定啥大目标。大家搞研究就是为了让电脑能认出图片或者生成视频,就这么简单。” 辛顿一直都在盯着AI可能带来的风险看,他觉得一旦AI真的变得超级聪明,搞到把人类消灭掉的概率大概有10%到20%。2023年的时候,他卖掉了自己创办的DNNresearch公司给谷歌10年后,决定从谷歌离职,这样就能更自由地说出对AI风险的担心了。他还提到技术很难不让坏人去滥用它。 关于具体风险类型,辛顿分了两类:一类是坏人用AI搞坏事,比如发假视频、攻击网络,甚至可能制造病毒;另一类是AI自己变成坏人。这是两种完全不一样的坏事儿。 要解决这些问题挺难的,辛顿觉得每个问题都得单独想办法对付。比如对付假视频,可以学学以前印刷术出现后出版物标注作者的办法,给图像视频做个标记。不过他也承认这招有局限性,“这能把某个问题解决了,可别的问题还是解决不了。” 至于AI本身的风险,辛顿认为关键是要重新定义人和机器的关系。等AI变得超级聪明了,不仅能力比人强得多,还可能有了活下去甚至控制人的念头,“人能控制机器”的想法就站不住脚了。 他提议给机器设计一种像“母性本能”的机制,让它对人产生同情而不是控制欲。他打了个比方:“现在唯一一个比人更聪明还被弱小者影响的例子就是婴儿和妈妈的关系。”所以面对超级智能AI时,“它们像妈妈,咱们像婴儿”,这或许就是个不错的参考模型。