提升全民数字素养 完善人工智能治理体系——生成式AI发展亟需社会合力共治

问题:生成式人工智能快速普及,风险治理与社会适应能力不匹配。

当前,大语言模型等生成式人工智能凭借高拟真、低门槛、强扩散的特点,正深刻改变信息生产、传播和消费方式。

从文本生成到音视频合成,从客服助手到内容创作,其应用不断下沉并嵌入多类场景。

然而,技术“跑得快”,制度和社会能力“跟得慢”,深度伪造扰乱信息秩序、算法偏见放大刻板印象、版权边界模糊引发纠纷、虚假内容侵蚀公共信任等现象,成为亟待回应的现实挑战。

原因:技术机理复杂、公众认知不足、责任机制不清,形成叠加效应。

一是技术层面的“偏见与黑箱”并存。

模型训练依赖海量数据,数据中潜藏的历史偏见与结构性不平等可能在算法学习中被继承甚至被放大,导致生成结果在性别、地域、职业等方面出现不公倾向。

同时,模型参数规模庞大、训练过程高度专业化,使外部难以理解其决策逻辑,解释不足造成追责困难,影响风险溯源与纠错。

二是认知层面的“可信幻觉”与甄别短板交织。

生成内容语言流畅、结构完整,易给人以“看起来很对”的错觉。

部分用户在高频使用中形成依赖,弱化求证意识与独立判断,导致错误信息更易被接受和二次传播。

加之普通公众缺乏识别合成内容的技术工具与方法,面对深度伪造音视频、仿冒账号“以假乱真”等,往往难以及时辨别。

三是社会责任层面的“边界模糊”与“公平缺口”突出。

生成式人工智能涉及研发、训练数据提供、平台运营、应用开发、终端用户等多方主体,权责划分复杂。

隐私保护、数据安全、内容审核、侵权认定等领域仍存在规则衔接与执行难点。

与此同时,算力、数据、人才等资源向少数主体集中,可能推高行业门槛,扩大不同地区、群体之间的能力差距,形成新的数字鸿沟。

影响:风险外溢可能冲击社会信任、公共安全与公平秩序。

在信息生态方面,虚假内容借助社交平台快速扩散,容易造成舆情误导,增加社会治理成本,削弱公共讨论的事实基础。

在公共安全方面,若被用于生成钓鱼话术、自动化攻击脚本或虚假情报,可能对关键领域网络安全和公共秩序带来连锁风险。

在经济与社会层面,版权纠纷增多、岗位结构调整加速、平台垄断风险上升等问题,可能引发新的分配矛盾与社会焦虑,不利于创新红利更公平地惠及各方。

对策:以数字素养建设为基础,以规则供给与技术治理协同推进,形成可持续治理闭环。

其一,把提升公众数字素养作为基础性工程。

面向不同群体分层推进:对青少年突出信息检索、事实核验、版权意识与网络文明;对职场人群强化数据安全、合规使用与工具协作能力;对老年群体侧重反诈识骗、隐私保护与基础操作。

通过学校课程、社区培训、媒体科普、平台提示等方式,建立“会用、慎用、善用”的社会共识,提升对合成内容的识别能力和对信息来源的核验习惯。

其二,完善生成式人工智能治理的规则体系与责任边界。

推动算法透明度、内容标识、数据来源合规、隐私保护、未成年人保护等制度细化落地,明确研发者、平台方、应用方和使用者的责任分担与问责路径。

针对深度伪造等高风险场景,探索更严格的身份核验、显著标识与快速处置机制,提升监管可执行性与可追溯性。

其三,推动企业落实安全与伦理内控。

鼓励在模型训练与产品上线前开展风险评估与红队测试,强化对歧视性输出、虚假信息、违法内容的防护;健全日志留存与申诉纠错渠道,形成“可发现、可追踪、可纠正”的治理链条。

对关键行业应用,推动更高标准的安全测试与分级管理,防止风险在高影响领域扩散。

其四,促进技术红利更均衡释放。

通过公共服务平台、开放教育资源和中小企业扶持政策,降低工具使用门槛,扩大优质数字能力供给;加强对市场竞争秩序的维护,防止算力、数据与渠道资源过度集中;支持面向公共服务、教育医疗、基层治理等领域的应用创新,让“人工智能+”行动更好服务高质量发展与民生改善。

前景:以能力建设和制度建设双轮驱动,推动技术向善与治理现代化相互促进。

展望未来,生成式人工智能将持续迭代并更深嵌入社会运行体系。

治理的关键不在于“堵”,而在于“立”:立规则、立能力、立边界、立共识。

随着数字素养提升、制度供给完善、企业自律增强与社会监督参与,生成式人工智能有望在更可控、更可信的轨道上释放创新潜能,为数字强国建设提供更坚实支撑。

人工智能治理不仅关乎技术发展,更是对国家治理能力的重大考验。

在数字化转型浪潮中,唯有筑牢伦理底线、提升全民素养、完善制度设计,方能使技术创新真正造福社会,为数字中国建设提供坚实保障。

这既需要政策引领,也呼唤每个公民的积极参与,共同绘制人机协同的美好图景。