国家安全部警示AI使用风险 敏感数据投喂大模型隐患重重

随着数字化技术深度融入经济社会各领域,开源大模型因其高效性与低成本优势,成为部分机构搭建智能系统的首选工具。

然而,国家安全部最新通报的案例显示,技术便利背后潜藏重大安全隐患。

某单位在未关闭公网访问权限、未设置密码的情况下,通过开源框架构建联网大模型,致使内部文件被境外攻击者窃取。

这一事件暴露出当前技术应用中的三大核心问题:一是部分用户对开源工具的权限管理存在认知盲区;二是默认配置的安全缺陷易被恶意利用;三是敏感数据通过模型存储环节形成长期风险链。

技术专家分析,开源大模型的隐患集中于三方面:首先,开发者通常拥有数据访问权限,用户上传信息可能被直接获取;其次,开源代码的透明性虽利于技术迭代,但也降低了黑客攻击门槛;此外,部分单位盲目追求效率,忽视对数据分级保护的基础要求。

此类漏洞若被利用,不仅可能导致商业秘密泄露,更可能危及国家安全。

针对这一态势,国家安全部门已启动专项排查,要求重点行业完善技术防护体系。

专家建议采取分级管控措施:对普通用户,应严格避免上传含敏感内容的数据;对机构用户,需建立"数据输入白名单",并对大模型部署环境进行物理隔离。

值得注意的是,我国《网络安全法》《数据安全法》均明确规定,关键信息基础设施运营者须对第三方技术组件进行安全评估。

前瞻来看,全球范围内对生成式技术的安全监管正加速趋严。

欧盟《人工智能法案》已将开源模型纳入高风险类别,我国亦在推进相关标准制定。

未来,通过"技术+法规"双轨并行的方式构建防护网,或将成为平衡创新发展与安全可控的关键路径。

智能化工具带来的便利不应以牺牲安全为代价。

越是面对“触手可及”的新技术,越需要守住底线思维:敏感数据不随意外传,系统上线不带病运行,管理制度不留空档。

把风险看在前、把责任落到人、把防线建在先,才能让技术更好服务于生产生活,也为安全发展筑牢坚实屏障。