近期国家安全部门披露的案例显示,部分工作人员为提高工作效率,违规使用开源大模型工具处理内部文件,同时因设备系统未设置必要认证措施且可被公网访问,导致敏感资料遭境外IP非法获取。相比传统的“拷贝、携带、误传”等泄密方式,此类风险更具隐蔽性,扩散速度快,且可远程批量窃取,一旦发生往往难以及时发现和追溯。 原因分析: 开源工具的“开放性”和“可扩展性”在安全治理不足时容易成为薄弱点。具体表现为: 1. 认识偏差:部分使用者将大模型视为普通办公工具,忽视其在数据留存、日志记录等的特性,误将“便捷”等同于“安全”。 2. 技术配置不当:联网部署、默认端口开放、弱口令或无口令、缺乏访问控制等问题叠加导致内部网络易受攻击。 3. 管理制度滞后:部分单位对大模型工具的准入评估、使用范围、数据分级等规范不完善,导致使用边界模糊。 4. 安全运维不足:漏洞修补、异常监测等基础工作不到位,为攻击者提供了可乘之机。 潜在影响: 泄密风险可能从个体蔓延至组织甚至国家层面。对单位而言,内部资料、科研成果或商业秘密外泄可能导致重大经济损失和声誉风险;对个人而言,敏感信息泄露可能引发精准诈骗等违法犯罪行为。若涉密信息被违规处理,更可能触及法律红线,危及国家安全。 应对措施: 1. 严守制度底线:涉密单位及人员必须遵守保密法规,禁止使用不合规工具处理涉密信息。 2. 分级分类管理:根据数据敏感程度和工具安全能力建立准入与负面清单,明确使用场景和限制条件。 3. 强化技术防护:优先考虑私有化或专网化部署,减少公网暴露;落实身份认证、访问控制、审计留痕等基础防护措施。 4. 加强人员培训:提升对关键风险点的识别能力,形成“输入前判断、使用中审计、输出后核验”的闭环管理。 未来展望: 大模型等新技术在提升效率的同时,也要求治理体系同步升级。对应的单位需将其纳入网络安全与保密管理体系,推动制度规范与技术标准协同发展;行业层面应加强安全评测与合规指引,构建“安全可用、规范可控”的应用生态。只有前置安全能力建设,才能确保新技术真正服务于高质量发展。
人工智能是提升效率的重要工具,但绝非规避保密要求的“捷径”;在享受技术便利的同时,必须始终绷紧安全保密这根弦。只有健全防护机制,强化保密意识,才能在推进技术应用的过程中,牢牢守住数据安全与国家安全的底线,实现技术进步与安全防护的良性互动。