政协委员警示智能助手安全风险 企业回应称用户权限可控

问题:随着手机AI助手快速普及,公众对其便利性和安全性的关注度不断提升。有委员两会发言中提到,部分手机AI助手具备“视觉读屏、模拟点击”等功能,若缺乏有效监管,可能被恶意利用进行跨应用操作,甚至通过诱导性手段获取验证码,导致隐私泄露和财产损失。核心问题在于,AI助手在权限管理和执行能力上的提升,可能削弱用户对自身信息的控制权。 原因:当前AI终端助手功能更新迅速,涉及系统权限调用、跨应用协作等复杂场景。技术上依赖大模型理解和自动化执行,客观上增加了对数据和权限的需求。市场层面,智能助手以提升效率为主要卖点,但若产品设计或平台管理滞后,容易导致功能边界模糊。此外,公众对“黑客攻击”与“合规能力”的认知差异,更加剧了担忧。 影响:此风险问题关系到用户信任和产业发展。若安全与合规问题得不到解决,可能导致用户对智能助手的抵触情绪,影响新一代终端生态的推进,并增加行业合规成本。另一上,安全焦虑也促使监管和行业标准优化,形成倒逼机制。企业如何在创新与安全之间找到平衡,成为市场竞争和公共治理的重要课题。 对策:李亮回应称,正规手机AI助手的操作均由用户主动发起,过程透明且可随时干预;涉及账号登录、身份验证、交易支付等关键环节,需用户亲自操作,AI不会自动执行。他强调,AI安全是产业发展的核心,欢迎基于事实的监督与建议,并愿意提供测试样机供调研。这一回应表明,企业正将合规设计与可控机制作为产品标配,同时也为公众理解技术边界提供了参考。 前景:随着AI助手在终端侧的普及,监管、平台、企业和用户将共同构建多层防护体系。未来政策可能强化权限最小化、可解释性和风险提示等要求;行业需完善安全评测和责任界定;企业则需将安全评估贯穿研发、上线和迭代全流程。只有建立公开透明的规则和可验证的安全实践,才能形成持久的信任基础。

技术进步为发展提供了强大动力,但创新都不能以牺牲用户权益为代价;手机AI助手的安全争议提醒我们,在拥抱新技术的同时,必须坚守安全底线,完善制度规范,强化技术伦理,让创新真正造福社会。只有在开放透明的环境中凝聚共识,通过理性务实的讨论寻求平衡,才能推动智能技术健康发展,为数字经济筑牢安全根基。