多所高校禁用开源智能工具 校园网络安全管控升级

随着人工智能技术快速迭代,开源AI工具在高校和科研机构的使用越来越普遍;但近期一些高校采取了更严格的管理措施,明确禁止使用OpenClaw等自托管AI工具,由此也引发了对高校网络安全管理的继续讨论。OpenClaw是一款开源AI智能体框架,主打轻量化和自托管,用户可在本地部署运行,不依赖云端服务器。本地化架构在一定程度上减少了数据传输环节的外泄风险,但也带来新的安全问题。由于其开源属性,第三方插件和扩展模块来源多样、质量不一,部分脚本可能存在漏洞甚至夹带恶意代码,一旦被不当安装使用,可能导致本地数据被非法访问或窃取。

开源工具带来效率提升,也带来新的安全挑战,高校从严管理并不意外。关键在于,安全不是简单的“禁与放”,而是把风险识别、准入评估、过程审计和应急处置串成闭环。只有让技术应用有规则可依、让责任边界清晰可落地,才能在守住数据安全底线的同时,推动数字化教学科研稳步发展。