问题——“好用”与“敢用”之间出现落差。
近期,某视频创作者在体验一款视频生成模型时发现:将个人照片上传后,生成视频不仅面部呈现逼真,连声音也与本人高度一致。
尽管相关功能随后被紧急调整,但由此引发的讨论持续发酵:个人影像、声音等敏感要素是否在用户不充分知情的情况下被采集、用于训练或被二次利用?
在社交媒体高度普及的背景下,越来越多普通人将照片、视频、语音留存在网络空间,一旦被拼接、仿冒或外泄,可能带来诈骗、骚扰、名誉侵害等现实风险。
青年群体作为新技术高频使用者,对“能不能放心用”表达了更强烈诉求。
原因——数据来源广、授权链条长、提示机制弱是核心症结。
一方面,生成式工具依赖海量数据进行学习迭代,公开视频、公开账号内容与网络文本在技术上更易被抓取和处理;但数据“可获取”不等于“可任意使用”,训练数据的合法来源、授权范围、用途限制与退出机制若缺乏清晰边界,争议便难以避免。
另一方面,一些平台以“同意全部条款”作为服务前置条件,用户往往难以逐条理解授权内容,形成事实上的“被动同意”。
同时,跨端使用与权限管理不一致也容易造成误解:移动端通常以弹窗提示权限,网页端提示不显著或路径较深,用户对位置、设备信息等是否被读取缺乏直观感知。
更值得注意的是,深度合成门槛不断降低,面部、声音、口型等多模态仿真能力增强,使“素材一旦外流就可被快速复用”的风险显著放大。
影响——信任受损与社会成本上升叠加显现。
面向青年群体的相关问卷结果显示,语言生成类工具使用最普遍,其次为图像生成与音视频处理等。
与此同时,受访者担忧较为集中:一是“幻觉”或虚假信息可能误导用户;二是肖像权、著作权等权益可能被侵犯;三是生成内容被用于诈骗威胁财产安全;四是内容可能受商业因素影响而失真。
受访青年还反映,部分工具能够基于对话与检索汇总个人信息,或在未充分提示的情况下呈现定位相关信息,带来“被画像”“被读取”的不适感。
对家庭生活而言,风险也在外溢:长辈对生成内容辨识能力较弱,带有“科普外衣”的虚假内容更易在社交群传播,造成信息污染与误导;对个体而言,声音仿冒、形象合成可能被用于冒充熟人、诱导转账,增加社会治理与反诈成本。
对策——以规则透明和技术约束共同托底“可用、可信、可控”。
首先,数据合规要前置。
应推动训练数据来源可追溯、授权可核验、用途可限定,明确哪些数据可用于训练、是否允许商业化、是否允许生成相似形象与声音等关键边界,并建立便捷的查询与退出机制,让用户对自身数据拥有可理解、可操作的选择权。
其次,权限与提示要清晰一致。
对涉及位置、通讯录、相册、麦克风等敏感权限,应在不同端口采用同等强度的显著提示,并提供“最小必要”选项,避免“一揽子授权”。
再次,生成内容要强化标识与溯源。
对深度合成内容应完善显著标识规则,推广水印、指纹等技术手段,提升可追踪性与取证效率,压缩仿冒与诈骗空间。
第四,平台治理要压实责任。
对疑似仿冒、侵权、虚假信息等内容,平台应完善审核、举报、处置与复议机制,形成闭环;对热点领域的“伪科普”内容加强风险提示与权威来源引导。
第五,公众素养需同步提升。
高校、社区与媒体可加强对生成内容识别、个人信息保护、反诈常识的普及,尤其关注老年群体的信息鉴别能力建设。
前景——从“快速迭代”走向“规范发展”将成为行业共识。
生成式工具正在重塑内容生产与学习办公方式,其价值不容忽视,但越是深入日常生活,越需要以制度与技术共同筑牢底线。
未来一段时间,围绕训练数据合规、个人信息保护、深度合成标识、侵权责任认定等环节的规则供给有望进一步细化,企业也将从“拼功能”转向“拼可信”,在透明度、可解释性和安全治理上形成竞争力。
可以预期,只有让用户清楚知道数据从何而来、如何使用、如何退出,知道生成内容是否可信、是否可追责,才能把“好用”真正转化为“放心用”。
技术进步的根本目的在于服务人类社会。
在数字化浪潮中,如何平衡创新发展与安全底线,既考验管理智慧,也折射出一个社会的文明程度。
只有筑牢个人信息安全的防护网,才能让技术创新真正成为推动社会进步的有益力量。