在数字化浪潮加速推进的背景下,人工智能技术的深度应用正面临社会责任与风险管控的新课题。
全国人大代表、华中科技大学校长尤政在接受采访时指出,当前部分智能化工具存在认知偏差与责任界定模糊等问题,亟需构建规范化应用体系。
问题显现于用户与技术间的认知鸿沟。
以近期流行的智能交互工具为例,部分使用者过度依赖系统输出结论,却忽视其数据推演的局限性。
尤政以"吸烟有害健康"的警示类比,指出技术提供商若未明确提示潜在风险,将导致用户在使用过程中产生误判。
"工具始终服务于人,而非替代人的判断力",他强调。
深层原因在于技术伦理与商业利益的失衡。
业内人士分析,部分企业为抢占市场先机,刻意弱化技术边界说明,将未充分验证的功能推向民用领域。
尤政特别指出,涉及数据调用、权限开放等敏感操作时,现行规范存在告知不充分、授权不透明等漏洞,这种"先应用后追责"的模式埋下隐患。
这种状况可能引发三重负面影响:一是削弱公众对新兴技术的信任基础;二是增加个人隐私与财产的无序暴露风险;三是延缓行业健康发展的进程。
深圳市龙岗区此前出台的专项管理办法虽具探索意义,但尤政认为需在国家层面建立统一标准,"技术试验不能以公众为试错对象"。
对此,尤政提出系统性解决方案:首先要求企业履行"技术烟盒"义务,对潜在风险进行分级标识;其次建议立法机关划定高风险技术应用的禁区,建立动态评估机制;最后强调应区分应用场景中的政府主导行为与个人自主选择,明确对应责任主体。
据悉,本届人大已收到多份涉及人工智能立法的议案,相关制度建设有望提速。
行业观察家指出,随着《数据安全法》《个人信息保护法》等法规的深入实施,智能技术领域将进入"规范发展期"。
未来三年,技术透明度承诺、用户教育体系、第三方监督机制等配套措施或将成为行业标配。
人工智能的发展是大势所趋,但技术进步与安全保障必须同步推进。
尤政代表的观点触及了当前智能应用治理的关键问题:既要鼓励创新,也要保护用户;既要尊重市场,也要规范企业;既要发挥技术潜能,也要防范未知风险。
这要求政府、企业和用户形成共识,在充分的信息透明、明确的责任划分和完善的法律框架基础上,推动人工智能技术朝着更加安全、可控、可信的方向发展。
唯有如此,才能让新技术真正造福社会,而非沦为伤害公众利益的工具。