维基百科把ai 生成的内容全给禁用了,就留了两个特例。

维基百科直接把AI生成的内容全给禁用了,就留了两个特例。毕竟,这25年来它一直是个开源的在线百科全书,谁都能往里扔知识,只要东西靠谱、有出处就行。但现在人工智能工具疯长,把内容创作搞得翻天覆地,平台就不得不划下一条硬杠:绝对不能拿AI工具来给维基百科创建或重写文章。编辑政策说得很明白:"大语言模型弄出来的文本,经常触犯我们不少核心内容政策。所以禁止用这种大模型来写文章,除非符合这俩例外。"在脚注里,他们还特意举了ChatGPT和Google Gemini做例子。关于咋用AI的事儿,百科给编辑和翻译留了几条路。允许大家在用了志愿审核员或者管理员过目后,让AI帮忙干些基础活儿,比如改改错别字、调调格式。不过就算这样,他们还是提醒大家长点心,因为AI可能会把意思给改歪了,弄得不准确,或者跟原文意图不符。再就是可以用AI把别的语言版的文章翻成英文,但译者必须精通英语和原文语言才能保证准。至于到底咋落实这项政策,现在还是个迷。毕竟是开源项目,AI又容易出错、抄东西,加这个条款也就不奇怪了。去年维基媒体基金会不是要求AI公司别再从百科扒数据了嘛,让他们改用企业API来用。这样既不把服务器压垮,又能帮着非营利的使命。政策里压根没提要是有人违规会咋罚,执行机制现在也没着落。 现在这时候正是AI变成咱们生活一部分的当口。Apple Intelligence和Galaxy AI早就在手机上能用了,我们用的APP、网站和服务里头也到处都是AI的影子。可大家伙儿对AI准不准还有会不会出错的担心越来越重。看来维基百科这决定正好反映了整个互联网的矛盾:在想让AI生成内容又快又方便跟要靠人来把关、保证知识准确这两边找个平衡点。 Q1:为啥要把AI的内容全给禁了?A:百科觉得大语言模型整出来的文本老违反他们那些核心规矩。作为开源项目得保证内容有根有据、能查得到,而AI又容易搞错、还爱抄袭,这跟百科追求的准确性完全对上了。 Q2:是说完全不让用AI了吗?A:那倒也不是完全禁止。百科留了俩特例:一个是你写的文章先拿去让人审核,过了关就能用AI干些改错别字、调格式的基础活儿;另一个是可以拿AI把别的语言的百科文章翻译成英文。 Q3:要是我用了AI被抓住会咋样?A:现在政策里啥也没提咋执行这些规定,也没说违了规会挨啥具体的罚。执行机制现在还没个准信儿呢。