英伟达CEO黄仁勋批评"AI末日论"阻碍投资 呼吁理性看待人工智能发展前景

近期,围绕人工智能风险与治理的公共讨论持续升温。

英伟达创始人兼首席执行官黄仁勋在接受播客节目采访时指出,部分将人工智能描绘为“世界终结”式的叙事,正在对产业投资与社会预期造成扰动。

他认为,这类论调虽然抓住了公众对未知技术的天然焦虑,但如果被过度放大,可能导致对新技术的系统性误解,进而形成“因恐惧而停步”的现实后果。

问题:认知偏差放大不确定性,投资与创新面临“被动刹车” 黄仁勋将当前的争论形容为一场关于人工智能前景的“叙事之争”。

一端强调风险与威胁,另一端强调潜力与机遇。

其核心矛盾并不在于是否存在风险——风险客观存在且需要治理——而在于讨论是否被极端化、情绪化叙事所主导。

当公共舆论中大量声音集中在“末日”与“失控”框架内,企业、资本和社会机构就可能出于避险本能延缓投入,形成创新链条的连锁收缩。

原因:科幻化表达与利益驱动叠加,治理议题易被“情绪化”牵引 从传播规律看,耸动、极端的表述更容易获得注意力,复杂技术问题往往被简化为二元对立的判断,忽视了技术演进的阶段性与可治理性。

黄仁勋同时把话题引向监管讨论,认为任何公司都不应以企业利益为出发点要求政府加强监管,因为这可能存在明显利益冲突:企业更倾向于通过规则设定抬高门槛、固化优势,而非从社会整体利益出发建立开放、公平、可持续的产业生态。

对于人工智能这样快速迭代的领域,如果监管议题被商业竞争逻辑裹挟,容易出现“以治理之名行市场之实”的偏离。

影响:过度悲观或推迟“安全改进—应用落地—公共收益”的正循环 黄仁勋强调,投资不仅意味着扩大规模,更意味着提升安全性、可靠性与能效水平。

事实上,人工智能系统的安全对齐、模型评测、数据治理、算力效率以及行业应用的规范化,往往需要持续投入与工程化迭代。

若社会层面形成“谈风险而拒绝投入”的氛围,可能带来三方面影响:一是安全能力建设放缓,反而不利于风险可控;二是技术红利释放延后,医疗、制造、交通、政务等领域的效率改善与公共服务提升难以及时实现;三是产业链预期不稳,创新资源向少数保守方向集中,削弱多元探索与竞争活力。

对策:在发展中规范、在规范中发展,构建可验证、可落地的治理体系 针对如何平衡风险与机遇,关键在于把讨论从情绪化叙事引向制度化工具。

其一,推动基于证据的风险评估与透明披露,围绕模型能力边界、数据来源、使用场景、输出可控性建立可审计机制,让公众看到“风险在哪里、如何被控制”。

其二,完善分级分类治理,根据不同应用的风险等级实行差异化要求:高风险场景强调准入、评测与责任追溯,低风险场景鼓励试点和迭代。

其三,加强行业自律与第三方评测能力建设,形成多主体参与的治理格局,避免单一叙事绑架公共决策。

其四,支持面向安全与效率的关键投入,包括算力能效、模型压缩、对齐训练、红队测试等,使“更安全、更高效、更实用”成为看得见的改进路径。

前景:理性预期将成为产业长期竞争力的重要变量 人工智能正处于从技术突破走向规模化应用的关键阶段。

全球范围内,围绕就业影响、产业重构、数据与隐私、知识产权以及安全伦理的讨论将长期存在。

黄仁勋此前也对“短期内大规模替代白领岗位”等观点表达异议,折射出业界对技术扩散速度与社会适配成本的不同判断。

可以预见,未来竞争不仅是模型能力之争,更是治理能力、应用落地能力与社会共识构建能力之争。

谁能在明确边界、强化责任、鼓励创新之间形成平衡,谁就更可能在新一轮产业变革中赢得主动。

技术进步从来伴随争议,但历史经验表明,理性认知比恐慌回避更能驾驭变革浪潮。

当下需要的不是末日预言,而是建设性对话;不是因噎废食,而是未雨绸缪。

如何在技术创新与社会适应间找到动态平衡点,这既考验企业家的远见,也衡量着整个社会的成熟度。