今年两会,“AI”这一话题再度成为热点。不少代表委员提出建议,给AI产业的发展系上“安全带”,认为要把安全能力嵌入到AI应用的全生命周期中,还要贯彻“非授权不访问”的双重授权原则。这个时候,需要明确的是,我国的生成式人工智能用户规模在2025年12月达到了6.02亿,普及率也超过了42.8%,意味着将近一半的国人都在使用AI技术。所以AI行业发展得很快,到了2025年,核心产业规模预计突破1.2万亿元。在这条高速发展的路上,速度规模固然重要,但安全风险也不能忽视。最近几次事件中,2026年初,名为Clawdbot(现已改名OpenClaw)的智能体刚一出来,就被黑客盯上,用于窃取API密钥。2025年底还有一款尚在内测的AI手机,提供跨应用搜索等功能,让不少用户担心隐私财产安全问题。最近还有车主因AI语音失灵在高速路上撞上护栏的新闻。这些都说明,隐私安全是个很重要的问题。 企业不能拿“用户同意”做挡箭牌。他们通过复杂协议或者默认勾选获取权限,这其实是不合理的。隐私安全不是可选选项,是产业生存的前提条件。技术不能因为追求效率就把用户置于风险之中。要建立在以人为本的原则上,而不是越俎代庖。聊天记录、支付信息这些敏感数据都可能被AI读取和处理。如果被滥用或者被黑客利用后果会很严重。 技术突破、制度约束、价值引导要同步推进才行。人工智能不仅是算力和算法竞争,更是价值竞争。商业行为不能突破法律与伦理底线。我们需要在创新和安全之间找到平衡才能更好地造福我们每一个人。