腾讯“dreamwriter”案被判赔,暴露了输出端的监管漏洞

“快看!”随着AI绘画、写作这些生成式内容的狂飙突进,版权保护成了卡住行业脖子的老大难问题。北京互联网法院判过AI图算作品,美国版权局却老驳回纯AI内容的登记申请,这就是法律适用上的大分歧。 今年杭州那场“奥特曼”AI侵权案更是让人咋舌,平台因为没及时下架侵权模型被判赔,暴露了输出端的监管漏洞。上海那起提示词侵权案也挺有意思,法院觉得提示词没个性智力投入,这就把技术工具和人类创作的边界划得清清楚楚了。 腾讯“Dreamwriter”案里法院判给腾讯版权,理由是生成过程用了团队的智力活动。可现在这种判例还没形成统一规则。再加上AI洗稿、深度伪造这些招数越来越隐秘,大家伙儿的权益怎么保护?这是个大问题。 咱们得赶紧完善法律法规了!核心的挑战在于独创性认定模糊。怎么才能弄清楚AI生成的内容到底算不算“人类智力成果”?还有权属分配也得想清楚,开发者、使用者、数据提供方的利益冲突很激烈。 要立法明确版权归属原则,“人类主导+技术辅助”这标准得借鉴欧盟的草案。要是AI内容反映了人的自由选择和创造性输入,那就能受保护。比如用户搞了个复杂的提示词参数调整弄出来的内容,那就是合作作品。 再设立个“AI邻接权”怎么样?参考日本的修正案,对纯AI内容给个短期限的邻接权保护,收益多给数据提供方分点,平衡一下各方利益。强制标注义务也得跟上,要求AI生成的东西必须注明来源。比如2025年德国慕尼黑法院就判了OpenAI没标训练数据来源侵权。 输入端要建立数据授权机制。让AI平台把训练数据来源公开出来,要是没授权就拿受版权保护的数据去训练模型,那就是侵权。Getty Images告Stability AI那个案子挺典型的。 输出端要把“通知-删除”规则完善了。平台接到通知得在24小时内下架内容,不处理就要负连带责任。杭州那案子平台因为推荐侵权模型被判了帮助侵权。 技术溯源工具也得推起来。像Google SynthID这种内容水印技术还有区块链存证都可以用起来。中版链平台就用区块链记录创作时间戳给确权提供技术支撑。 推动国际规则协同也很重要。咱们得参与WIPO框架谈判,支持分级保护方案。欧盟要求高风险AI系统披露数据来源,新加坡允许合理使用数据训练模型,这些都能当参考。 建立跨境执法机制也是关键。针对AI内容全球传播的特点搞个国际联盟共享黑名单才行。比如2025年中美达成的那个协议就挺有意义的。 美国“合理使用”抗辩案挺值得琢磨的。Authors Guild v. OpenAI里OpenAI说训练行为是转换性使用没成功,但给后来的数据合法使用提供了辩护思路。 日本的“输入端绿灯”政策也不错。允许AI在非个人享受的目的下用受版权保护的数据训练模型,就是不能直接抄原作。 中国的司法先行模式也挺棒的。北京互联网法院那个文生图案明确了提示词设计有独创性就能获保护。 法律完善和行业发展得共生才行。既保护创作者权益又推动技术发展才是正道。通过明确权属规则、强化监管技术、参与国际治理这三个方面入手构建新模式为全球贡献中国方案。