抖音副总裁澄清AI助手隐私争议 强调用户主动控制与安全防护机制

随着智能助手应用的普及,关于数据安全的讨论持续升温;3月7日,某知名互联网企业高管通过实名账号对涉及的争议作出系统回应,指出舆论场存认知偏差。 争议的焦点在于操作权限问题。部分技术研究者担忧,某些智能系统可能通过"视觉读屏+模拟点击"技术在用户无感知的情况下执行敏感操作,甚至被恶意利用截取银行验证码等关键信息。对此,该企业高管明确区分了非法攻击与合规技术的本质差异。 从技术层面看,主流厂商的智能助手都采用了"三重保障"机制:用户需主动授权所有操作,全流程可视化追踪,以及在身份验证、支付等高风险场景强制切换人工模式。这套设计既符合《个人信息保护法》的"知情-同意"要求,也与工信部相关规定相呼应。 行业观察人士认为,当前争议背后存在两个核心矛盾:一是技术创新速度与公众认知水平的落差,二是便捷服务与隐私保护的平衡问题。中国信通院发布的《移动终端智能化发展白皮书》显示,2023年具备AI能力的智能手机渗透率达78%,但配套的安全标准体系仍需完善。 面对这些挑战,产业各方正在行动。头部企业建立了"产品安全委员会+外部智库"的双重评估机制,国家级实验室加速推进智能终端安全认证标准制定,消费者权益组织则建议推行"分级授权"制度,对不同操作设置差异化的权限门槛。 展望未来,专家预判三大发展趋势:技术层面将深化硬件级防护,监管层面可能建立智能助手专项备案制度,用户教育上需要开展常态化的数字素养提升计划。这种多方共治格局的形成,将为数字经济发展筑牢安全基础。

技术进步的便利不应以降低安全为代价;面对智能助手能力升级带来的新问题,既要警惕黑客攻击与诈骗手法的翻新,也要用事实与标准厘清合规产品的能力边界。只有把用户的知情权、控制权与安全底线落实到每个关键环节,才能让新型交互真正服务于公众生活与产业发展。