国家安全机关提醒大家要小心开源人工智能技术带来的新数据安全问题

最近,国家安全机关提醒大家要小心开源人工智能技术带来的新数据安全问题。 人工智能技术发展很快,开源大模型等工具因为方便高效,越来越多应用在各个行业。虽然这给大家带来了便利,但也带来了一些安全风险。 国家安全部门给我们举了一个例子,来提醒大家注意这个问题。有个单位的员工处理内部文件时,没用对保密规定,直接把文件放进基于开源框架的大模型里去分析。 因为他的电脑没设置好,默认让公网访问了,还没设密码。结果,这些敏感的内部资料暴露在了网络上。后来,境外的IP地址非法访问了这些资料,还下载了。这说明开源人工智能技术要是管理不好或者防护措施不到位,就会给数据安全和国家安全带来很大隐患。 这个案例说明了开源人工智能工具和保密管理之间的矛盾。开源工具的核心代码和数据是公开的,大家可以免费使用和修改。虽然这样方便了大家协作创新,但也让数据更容易被别人看到和利用。 分析说开源人工智能工具的数据安全风险主要是因为它的工作原理。用户给模型输入各种文件和数据后,系统就会储存或用于训练模型。虽然这是智能处理的基础,但也意味着用户上传的信息可能会脱离自己的控制范围。 主要有两个层面的风险:一是开发方或维护方可能拥有对存储数据的最高权限,如果管理不善或心怀不轨,敏感信息就可能泄露;二是开源特性使得代码可能被多方检查和分析,这虽然有助于发现漏洞,但也给攻击者提供了研究攻击路径的机会。 攻击者可能利用漏洞侵入系统,窃取服务器上的用户数据。这种远程窃取方式传统防护手段很难防范。对于党政机关、涉密单位和拥有大量个人信息的企业来说,数据泄露的后果非常严重。 对于普通公众来说,把个人敏感信息上传到这类工具上也有风险。可能会被非法收集和贩卖,导致诈骗和财产安全问题。 我们不能因为安全问题就拒绝技术发展,但必须提高安全意识和防护能力。要想保障数据安全,需要多方合作:首先要遵守保密法律法规红线;其次要让技术应用和安全防护同时进行;还要提高全社会的数字素养。 不同组织要加强员工培训和数据分类管理;公众也要注意个人信息保护。总之,技术越先进应用越广泛就越需要加强安全措施。只有坚持总体国家安全观才能在科技革命中走得更远。