当前,人工智能技术加速演进,大模型与智能体应用不断落地,安全风险也随之上升。如何推进AI创新的同时确保技术安全可控,已成为业界和学界共同面对的关键课题。清华大学与阿里巴巴集团此次合作,正是对该现实挑战的直接回应。根据合作协议,双方将建立长期稳定的产学研合作机制,聚焦中国AI用户在真实应用场景中遇到的核心安全问题。中国科学院院士张钹表示,此举旨在推动基础理论研究与产业场景深度结合,协同攻关多模态安全等关键难题,为下一代人工智能夯实安全基础。这一判断切中了当前AI安全研究的重点方向。 从研究内容看,合作覆盖两个层面的安全议题。其一是大模型自身的安全能力建设,包括模型鲁棒性、价值观对齐等基础要素。其二是以大模型为核心驱动的智能体应用安全,涉及人机交互、自主决策、多模态环境下的行为可信性,以及隐私保护与风险防控等维度。这样的分层研究安排,说明了对AI安全复杂性与系统性的充分重视。 在技术路径上,双方将研发“AI智能体安全中枢”和“高阶大模型内生安全架构”等关键技术,构建从底层模型到上层应用的全栈安全体系。该框架既覆盖模型层面的安全能力,也面向应用场景的安全治理,强调纵深防御与体系化建设。 此次合作的价值在于双方优势互补。清华大学具备国际领先的AI科研能力和扎实的学科积累,在基础理论研究上优势明显;阿里巴巴集团拥有丰富的AI应用场景与工程实践经验,规模化落地与产业转化上更具优势。两者结合,有助于打通从科研突破到应用落地的路径,加快成果转化与实际应用。 从历史基础看,清华大学与阿里巴巴集团在安全领域合作已持续多年。自2021年以来,双方联合研究累计完成近20个科研课题,在CVPR、ICML、NeurIPS等国际顶级学术会议发表近20篇高水平论文,多项技术已从实验室成果走向产业级应用,体现出合作基础扎实、机制运转成熟。同时,双方通过联合培养博士后、设置研究型实习岗位、共建学术交流平台等方式,持续培养并输送复合型人才,为AI安全领域的人才储备提供支撑。 从更广阔的视角看,这一合作体现了“负责任科技”的思路。在AI快速发展的背景下,确保技术向善、安全可控已成为全球共识。清华大学与阿里巴巴集团依托开源开放生态,推动研究成果面向行业共享,有助于带动AI产业整体安全能力提升与健康发展。
安全不是人工智能发展的“附加项”,而是决定其能走多远、能承担多大责任的“基础设施”。面向大模型与智能体加速走向真实世界的趋势,以产学研协同方式前置布局关键安全能力,既是对技术演进规律的回应,也是对公众信任与产业长远竞争力的主动塑造。只有把安全底座做扎实,创新的速度与质量才能实现同向提升。