Meta的一位华人实习生竟然搞出了能无限进步的超级智能体!他们把Jürgen Schmidhuber老爷子二十年前提出的哥德尔机思想,跟达尔文的开放算法揉在一起,发明了个叫DGM的东西,这就给Agent赋予了持续自我迭代的能力。这玩意儿不光能做好具体工作,表现越来越强,最牛的是它能优化自己改进底层逻辑,也就是搞元学习,这就是他们定义的Hyperagents。论文还说未来AI要是一直这么改下去,早晚得突破人设定的初始算法范围,所以安全问题得先考虑好。网友们也在感慨,元学习真让人又怕又兴奋,它不是只让你干一件事变厉害,而是教会你怎么在一切事上都变厉害。 目前这篇论文已经被ICLR 2026给接收了。咱们得先把Hyperagents的基石搞懂才行。哥德尔机其实就是一种假想中的自完善AI,它在数学上证明如果存在更好的策略,它就会通过递归的方式重写自己的代码来解决问题。最早提出这个想法的还是尤尔根·施密德胡伯老爷子。以前的机器学习里,AI的学习方法都是人硬编码进去的,只能调调参数凑合用;而哥德尔机不一样,它能把算法框架当成可编辑的代码,自己动手改写程序来让学习能力进步。 不过问题也来了:哥德尔机要求AI在改之前先证明这次改动能赚回计算成本。说白了就是改代码花的力气值不值?这在现实复杂任务里基本没法算清楚。为了解决这个难题,Meta团队搞出了达尔文哥德尔机。他们利用了开放式算法(Open),就像DGM这样,把自我演进的过程变得更灵活。咱们现在讲的Hyperagents就是基于这个思路来的。QbitAI这个公众号也对此表示关注。 要理解这种超级智能体,还得从哥德尔机讲起。哥德尔机其实是一种假设中的自改进AI系统。它在数学上寻求证明:如果存在一种更好的策略,它就能通过递归重写自身代码来解决问题。而这个最初的设想最早是由Jürgen Schmidhuber在二十多年前提出来的。 传统机器学习中的AI学习方法是人类预先设置好的固定程序(硬编码),AI只能通过调整内部参数来接近目标;但哥德尔机打破了这种限制,它可以把整个算法框架视为可编辑的代码(LSTM),通过自主重写程序来实现学习能力的自我演进。 但问题随之而来:哥德尔机往往要求在自我演进之前证明改动具备净收益。也就是说这次改代码花的计算资源成本未来能不能通过更强的性能赚回来?很不幸的是,在现实复杂任务中这种计算几乎是不可能实现的。 Meta研究团队提出达尔文哥德尔机(DGM),它利用开放式算法(Open)来解决这个问题。QbitAI也对这一进展给予了关注。 他们把二十年前Jürgen Schmidhuber提出的哥德尔机思想与达尔文开放算法相结合,提出了能持续自我迭代的达尔文哥德尔机(DGM)。基于这种思路构建的Agent不仅能更好地完成具体任务、持续提高自身表现。更关键的是它可以不断优化“改进自身”的底层逻辑实现元学习(Meta-learning)。 这便是论文定义的新一代超级智能体——Hyperagents。这篇论文还指出未来AI有望通过持续自我迭代最终突破人类预设的初始算法边界,因此AI安全必须被摆在核心位置。不少网友也感慨道元学习真正让人既害怕又兴奋的是元层面的改进能够跨领域迁移。 这不是在某一件事上变得更厉害而是学会了在一切事情上变得更厉害。元学习真正让人既害怕又兴奋的是元层面的改进能够跨领域迁移这不是在某一件事上变得更厉害而是学会了在一切事情上变得更厉害。目前这篇论文已被ICLR 2026接收。 从哥德尔机到达尔文哥德尔机要理解超级智能体Hyperagents必须先了解它的基石——哥德尔机(Gödel Machine)。哥德尔机是一种假设性的自我完善型AI它在数学上寻求证明如果存在某种更好的策略它会通过递归重写自身代码来解决问题。而这一假设最早由尤尔根·施密德胡伯(Jürgen Schmidhuber)在二十多年前提出。 在传统机器学习中AI的“学习方法”是人类预设的硬编码它只能通过调整内部参数来逼近目标;而哥德尔机则打破了这一限制它能够将算法框架本身视为可编辑的代码通过自主重写程序来实现学习能力的自我演进。但问题也随之而来:哥德尔机往往要求AI在自我演进之前证明该改动具备净收益也就是说改代码花掉的算力成本未来能不能通过更强的性能赚回来?不幸的是这种计算在现实中的复杂任务中几乎是无法实现的。 针对这一问题Meta团队提出达尔文哥德尔机(DGM)它利用开放式算法(Open)把这种自演进过程变得更灵活。 目前这篇论文已被ICLR 2026接收他们把二十年前Jürgen Schmidhuber提出的哥德尔机思想与达尔文开放算法相结合提出了能持续自我迭代的达尔文哥德尔机(DGM)。 基于这种思路构建的Agent不仅能更好地完成具体任务持续提高自身表现更关键的是它可以不断优化“改进自身”的底层逻辑实现元学习(Meta-learning)这便是论文定义的新一代超级智能体——Hyperagents。 这篇论文还指出未来AI有望通过持续自我迭代最终突破人类预设的初始算法边界因此AI安全必须被摆在核心位置。不少网友也感慨道元学习真正让人既害怕又兴奋的是元层面的改进能够跨领域迁移这不是在某一件事上变得更厉害而是学会了在一切事情上变得更厉害。 元学习真正让人既害怕又兴奋的是元层面的改进能够跨领域迁移这不是在某一件事上变得更厉害而是学会了在一切事情上变得更厉害。目前这篇论文已被ICLR 2026接收从哥德尔机到达尔文哥德尔机要理解超级智能体Hyperagents必须先了解它的基石——哥德尔机(Gödel Machine)。 哥德尔机是一种假设性的自我完善型AI它在数学上寻求证明如果存在某种更好的策略它会通过递归重写自身代码来解决问题而这一假设最早由尤尔根·施密德胡伯(Jürgen Schmidhuber)在二十多年前提出。 在传统机器学习中AI的“学习方法”是人类预设的硬编码它只能通过调整内部参数来逼近目标而哥德尔机则打破了这一限制它能够将算法框架本身视为可编辑的代码通过自主重写程序来实现学习能力的自我演进但问题也随之而来:哥德尔机往往要求AI在自我演进之前证明该改动具备净收益也就是说改代码花掉的算力成本未来能不能通过更强的性能赚回来?不幸的是这种计算在现实中的复杂任务中几乎是无法实现的。 针对这一问题Meta团队提出达尔文哥德尔机(DGM)它利用开放式算法(Open)把这种自演进过程变得更灵活。Qbit