全球的ai 模型都在搞自己的本土化模型

说起来啊,咱们现在正在经历一场翻天覆地的变化。2000万条对ChatGPT的查询被牛津互联网研究所扒了个底掉,结果发现只要你问什么地方“更安全”、“更有智慧”,聊天机器人多半会盯着几个富裕的西方国家说。为啥呢?原来AI模型大多是美国人做的,用的数据那是深受“硅谷凝视”影响。这就好比让一个拉丁美洲孩子问ChatGPT谁是著名政治家,你猜猜它会吐出乔治·华盛顿还是本地名人? 为了打破这种局面,智利特意搞了个叫LatamGPT的东西。这是个由30位拉美科学家牵头、花了55万美元做出来的语言模型。他们为了让它看得懂本地文化,硬是扒下了8TB的信息——那可是堆成山的书本!智利科学部长阿尔多·巴列都说了,不能老让人家给咱们定制AI,免得咱们的传统文化被人家给吞了。 除了LatamGPT,这股风也刮到了别的地方。比如东南亚的SEA-LION和非洲的UlizaLlama,都在搞自己的本土化模型。说实话,光是德国那块儿就闹得沸沸扬扬。就在2月12日那天,德国内阁把那个叫《人工智能市场监管和创新促进法》的草案给拍板了。 这个法案里藏着不少厉害招数。比如那些开发AI的公司必须得好好评估风险。要是应用风险太高,法律上就管得特别严,直接就不让你发了。比如说那种能自动识别情绪的玩意就被禁止了。你要是敢违法乱纪,那可是要被罚到3500万欧元或者公司全球年营业额7%这么高的天价啊。 德国的联邦网络管理局也被赋予了新的使命,成了国家的AI监管中央机构。他们还要新增43个职位专门盯着这事。就连新闻媒体要是用AI做文章或者搞算法推送也得被审查一遍。为了能更好地推动创新,这个局还必须运营一个AI实验室给中小企业和研究机构先用起来。 对于这个法案,现在大家的反应倒是挺积极的。毕竟人家是在欧盟法规的基础上尽可能地开放了。不过也有人觉得这监管太严了点,怕把AI公司管成了机器人,把欧洲的红利给吓跑了。 其实更让人头疼的是技术带来的不平等。那些用在美国公司数据集里长大的AI系统本来就带着偏见。比如说咱们要去申请医保或者找工作的时候,系统没准就会因为数据偏差给出不公道的结果。 好在现在局面总算开始改观了。不光是拉丁美洲有LatamGPT这样的硬核产品出来抵抗“硅谷凝视”,非洲和东南亚那边也有SEA-LION这类专注于本土文化的AI模型涌现出来。看来要想真正打破那种单一视角的思维定式,咱们还得靠全世界的科学家一起使劲才行。