老规矩用在这里肯定不灵了,还得逼着它们多做点事前预防的工作

要说在2025年,AI和AIGC确实给知识产权这块地儿带来了不少新挑战。以前大家聊的保护制度,基本都是围绕着“人”来设计的,现在这些智能系统自己就会学、能创造,传统的老规矩一下子就显得不太灵光了。国务院新闻办公室那边也开了发布会,专门把完善这方面的制度给摆上了台面。说白了,咱们得赶紧把问题看透,眼光也得放长远。 你看啊,AI干活有两个大头:一个是“吃数据”,一个是“产内容”。前者在“输入”阶段风险特别高,因为模型要想强,就得喂海量的高质量数据。现行法律根本没系统地管这事,要是随便抓个数据过来用,很可能就踩进了著作权侵权、数据不正当利用甚至是个人信息保护这些雷区里。尤其是那些要搞模型训练的开发者,让他们对每一个数据都取得许可,这成本太高了,搞不好还会变成谁都进不去的壁垒。 再看“输出”阶段,也就是生成内容这块儿。现行著作权法里说作品得是人脑子想出来的东西,但现在很多AIGC的内容是你给个提示词,机器算一算就出来了。这里面到底算谁的功劳?界限其实挺模糊的。虽然有些案子里法院认可了用户在选提示词时的智力投入,判了著作权保护,但整体规则还没捋顺。 更麻烦的是,AI生成的东西跟原先的数据很容易撞车。要是算法把某本书里的细节都学了去,生成的内容跟原作高度相似,那肯定就构成侵权了。尤其是拿单一作者的书集中训练,这种情况特别多。 既然问题这么多,咱们就得从好几方面使劲。首先得给AI训练立个规矩,比如能不能参考国外的“文本与数据挖掘例外”,规定在特定情况下算法可以复制、分析作品,只要不损害原作者的利益就行。这样既能保住数据的来源合法稳定,又不至于把开发者的路给堵死。 个人数据这块也得管严。公开的数据在模型预训练里能用多少、怎么用?企业的数据被抓取算不算不正当竞争?这些都得在合法性、正当性、必要性的大框架下定得清清楚楚。 最后平台责任这块也得跟上形势。现在的平台算法直接产出内容并发布出去,它手里握着很大的技术控制权。“避风港”那条老规矩用在这里肯定不灵了。所以在给它们提供合理使用空间的时候,还得逼着它们多做点事前预防的工作。