国家安全部发布智能技术应用警示:便利与风险并存需筑牢安全防线

随着大模型等新技术加速落地,智能应用正从“工具”走向“伙伴”。

在课堂上,教师借助智能功能提升备课效率、优化教学设计;在居家养老中,语音设备提供陪伴与健康提醒,改善独居老人生活质量;在就业市场,围绕模型应用与内容生产的新岗位不断涌现,新的技能结构与职业路径逐步成形。

技术红利持续释放,社会生产生活的数字化、智能化水平不断提升。

问题在于,智能应用越深入、链接越广,安全边界就越容易被忽视甚至被突破。

国家安全机关提示,当前风险主要集中在三方面:其一,数据隐私与安全边界模糊带来的泄露隐患。

一些单位在搭建联网模型时直接调用开源框架、配置不严,导致内部系统暴露在公网环境中,攻击者可能绕过授权访问内网资源,形成敏感信息外泄风险。

其二,技术滥用引发虚假信息扩散。

利用深度学习进行图像、音频、视频的模拟合成,能够以较低成本制造“看似真实”的内容,一旦被恶意势力利用,可能误导公众认知、扰乱社会秩序,甚至危及国家安全。

其三,算法偏见与“黑箱决策”问题不容忽视。

模型输出受训练数据与规则影响,若数据样本不平衡、价值取向偏移或被人为操纵,可能出现立场偏向、事实遗漏甚至错误信息,尤其在历史、政治等严肃议题上更易造成误读与传播风险。

原因在于,多重因素叠加放大了风险。

一方面,智能应用门槛下降,个人和机构“拿来即用”的趋势明显,但配套的安全配置、权限管理、数据分类分级等基础工作跟进不足。

另一方面,部分用户对数据流向、存储方式、第三方调用等机制缺乏清晰认知,容易在聊天记录、文件上传、账号授权等环节产生“无感泄密”。

同时,深度合成与内容分发链路高度耦合,虚假内容可借助平台传播迅速扩散,造成“先入为主”的舆论效应。

此外,算法模型往往难以直观呈现其推理依据,公众在面对“看似权威”的生成结果时,容易产生依赖心理,从而削弱独立判断。

影响层面,风险既可能落到个人权益,也可能外溢为系统性挑战。

对个人而言,隐私信息、身份信息、支付数据等一旦泄露,可能引发诈骗、勒索、名誉侵害等连锁后果;对单位而言,内部资料暴露将带来合规风险、经营风险和安全风险,甚至触碰保密红线;对社会而言,深度伪造与错误信息传播会损害公共信任、扰乱正常秩序;对国家安全而言,境外敌对势力若借技术手段制造谣言、煽动对立、渗透破坏,将对安全稳定构成威胁。

对策上,既要补齐管理短板,也要形成全民可执行的安全习惯。

国家安全机关提示,可从三方面着力: 第一,划定智能应用“活动范围”,落实最小权限原则。

对联网应用应明确数据使用边界,避免处理涉密或敏感信息;对语音设备等应审慎开启收集权限,减少不必要的环境音采集;对智能助手、账号体系应避免保存支付密码、证件信息等关键数据,及时关闭不必要的数据共享、云端同步等功能,防止“过度授权”造成风险外溢。

第二,重视“数字足迹”管理,把日常防护做在前。

建议定期清理聊天记录与上传文件,及时修改强口令并开启多因素认证,更新系统补丁与安全软件,核查账号登录设备与异常登录提示。

对来源不明的软件、插件与模型程序保持警惕,不轻信“必须提供身份证号、银行卡号”等异常要求,避免在不明平台进行敏感信息输入与文件上传。

第三,优化“人机协作”方式,提高核验与辨识能力。

在使用智能工具时,应明确提问边界,避免引导其进行不当推演;对重要结论要求标注信息来源或依据,并进行跨平台核实。

尤其涉及政治、历史、意识形态等严肃内容,应坚持独立思考、辩证判断,不把生成内容等同于事实本身,防止被“看似合理”的错误输出误导。

前景来看,智能化是大势所趋,关键在于把安全理念嵌入技术应用全链条。

面向下一阶段,应推动“发展与安全”同步谋划:一方面,强化单位侧的安全管理与技术防护,完善数据分类分级、访问控制、模型部署与审计机制,形成可追溯、可评估的安全闭环;另一方面,加强公众侧的安全教育与能力建设,让每个用户都能在便捷与安全之间做出理性选择。

通过制度约束、技术加固与社会共治协同推进,才能让智能应用更好服务高质量发展与高品质生活。

人工智能大模型的发展是不可逆转的时代大势,其带来的生产效率提升和生活品质改善是显而易见的。

但任何技术进步都需要与安全防护相平衡。

国家安全部门提出的三条守则,既不是对技术创新的否定,也不是对应用推广的阻碍,而是在充分认识技术风险基础上的理性指引。

每一个使用AI应用的个人、每一个部署AI系统的单位,都应当将安全防护内化为日常习惯和工作规范。

唯有如此,才能在享受智能时代红利的同时,有效防范潜在风险,让这场深刻的智能变革真正成为推动社会进步、增进人民福祉的力量。