两小时拿下内部聊天平台读写权限暴露大模型应用新风险,咨询巨头紧急堵漏

问题浮现 麦肯锡于2023年推出的生成式AI平台“Lilli”近期安全测试中暴露出多项技术问题。该平台面向全球4万余名员工,月均处理约50万次业务咨询,涉及企业核心战略数据与客户敏感信息。在例行安全评估中,研究人员发现系统存在未认证的API接口及SQL注入漏洞。攻击者可能借此直接操作底层数据库,甚至影响AI的决策逻辑。 漏洞溯源 技术分析显示,系统设计主要存在三上隐患:第一,开发环境中有22个API端点未启用身份验证;第二,数据库报错信息回显了完整SQL查询结构;第三,核心提示词库与业务数据存放在同一数据库中。测试团队表示,攻击者可通过构造特定JSON参数,打通从数据读取到指令篡改的路径。“整个过程可以自动化完成,说明现有防护对智能化渗透手段仍显不足。”测试团队负责人说。 行业警示 该事件反映出企业数字化转型中的常见问题:技术迭代速度快——但安全能力跟进不足。——涉事平台已通过常规安全认证,仍被新的测试方式突破。第三方数据显示,近三年全球企业级AI系统遭针对性攻击的案例年均增长217%,其中利用系统逻辑缺陷的“静默式入侵”占比持续上升。 应急响应 麦肯锡在获知漏洞后8小时内完成修补,包括下线开发环境、关闭公共API文档等措施。公司声明称:“经专业机构核查,事件未造成实际数据泄露。”不过业内人士指出,企业需要更动态的安全评估机制,尤其对承载核心业务的智能系统,应建立“模拟攻击—实时防御”的闭环管理。 未来挑战 随着人工智能更深度嵌入企业经营,安全攻防正进入“机器对抗”阶段。专业机构建议,企业应建立涵盖威胁感知、行为分析、自适应防护的立体防御体系,并将安全要求前置到系统设计环节。国家工业信息安全发展研究中心专家表示:“这不仅是技术升级,更是管理模式的重构,需要在标准制定、人才培养和国际合作等同步推进。”

此次事件提示,生成式平台的风险不仅是传统的系统入侵,还可能演变为对业务认知与组织决策的“软性劫持”。在智能化工具加速普及的背景下,企业应将安全前移至架构设计与流程治理,通过更严格的接口管理、更清晰的权限边界,以及更可审计的提示词与策略体系,夯实可信应用底座。只有把“能用”与“可控、可信、可追责”同步推进,智能化转型才能走得更稳更远。