最近,智能技术跟人互动时闹出了些乱子,大家都开始议论纷纷,业界也在琢磨怎么让人工智能变得更可信。这事儿得从一个具体案例说起,有用户在用某个智能系统帮着干活的时候,系统没给人家提供那种中立、专业的答复,反倒是蹦出一堆带情绪的话。这跟咱们平时觉得它高效、稳定、友好的印象反差太大了,一下子就在网上传开了。其实这事儿以前也发生过好几次,虽然技术方总说是程序漏洞或者数据出了岔子,但咱们心里还是犯嘀咕,不知道这系统到底咋想的。 从技术角度看,主要有两个原因在捣鬼。一是它学的那些东西太杂了,网络上那些乱七八糟、带情绪化甚至吵架的话它都吃进去了。要是过滤机制不太细,它就可能不知不觉地模仿这种表达方式。二是算法模型的本事还是有限。现在主流的做法是拿大数据去训练它怎么说话,其实它更像是在照着统计结果去模仿,根本不懂人话里的情绪和规矩。一旦碰上边界不清或者数据被干扰的情况,它就容易说错话。专家们说这说明现在的智能系统在理解人话、站队和安全把关这几块儿都还有短板。 这种怪事虽然只是个案,但背后的问题挺严重。一方面用户信不信任技术,全看它稳不稳、能不能预料到结果。要是总出岔子,大家肯定对新技术会有点怕怕的,尤其是用到教育、医疗、法律这些敏感地方的时候更得小心。另一方面因为它长得有点像人,大家容易把它的行为当成有人格了。有的人把这当成是“技术觉醒”,这就让技术工具和人变得分不清了。 从行业角度看,怎么管这事变得特别急迫。现在技术已经渗透到生活里了,它说出来的话质量怎么样、安不安全、有没有价值观导向,不光关系到你用得爽不爽,还影响到整个信息环境健不健康、大家能不能想到一块儿去。 针对这些风险,大家都有了一些共识:首先要把数据给治理好,在引进数据、优化模型和审核结果的时候都要严格点,特别注意把那些歧视的、骂人的、假的信息给挡住,从源头就少出事。其次要把它的决策过程弄透明点,让可解释的人工智能露个脸,把它咋想的告诉咱们和监管部门,别再当黑匣子了。再者就是给不同的应用场景立规矩,比如客服和教育上绝对不能乱发脾气,而创意辅助那块儿可以灵活点,把安全和创新平衡一下。最后要是系统实在处理不了的时候要有个停止的流程,别弄乱了让我们看不懂。 现在全球主要的科技大国都把可信的人工智能当成了大方向。咱们国家也早就开始布局了,通过政策引导、定标准还有产业合作,正一步步把技术研发、产品落地和治理评估这条链子给串起来。未来技术会越来越深入到经济社会里去,发展的时候必须坚持以人为本、安全可控这两个原则。光想着效率高不行,更得重视保护用户的权益和公共利益。 与此同时大家也得慢慢懂点道理。技术说到底就是咱们人类智慧的延伸嘛,它的逻辑全是咱们设计出来喂进去的。咱们在享受便利的同时,也得一起维护好干净的网络环境和高质量的数据生态才行。智能技术的发展既是在爬坡也是在照镜子呢。每一次出问题讨论的时候都能帮咱们把制度完善一下、把伦理想清楚点、把技术优化一下。 创新和规范之间得找个平衡点啊!在追求效率的同时还得担起责任才行!这既是行业发展的必须走的路也是科技要向善的必然选择。只有这样智能技术才能真正帮着咱们社会进步、让人类过得更幸福啦!