微软这次在《麻省理工科技评论》上分享了一个蓝图,打算把AI造假和Deepfake问题给解决了。他们内部研究了各种技术手段,想用这一套“组合方案”来帮公司和平台应对这些情况。这其实就跟鉴别一幅伦勃朗真迹一样,大家要记录画作从哪来、经过了谁的手,还得弄上机器能看的隐水印和数字签名,这样当怀疑的时候就能拿这些东西来当证据。微软评估了60种溯源手法,模拟了元数据被删或者内容被改的情况,看看哪些方法组合起来用效果最稳。 微软首席科学官Eric Horvitz也解释说,搞这套方案部分原因是受到加州立法的影响,“你可以把它理解为一种自我监督。”他也希望公司形象能因此变好,让那些重视真相的人更信任他们。不过Horvitz也没打包票说一定会在自家平台全用上这些东西。这东西毕竟有天生的局限性,没法直接判断内容是不是真的,只能看出有没有被篡改。 加州大学伯克利分校的Hany Farid也说了,如果科技界照着微软的方案来办,确实能让那些想误导大家的人费点劲。他认为“绝大多数人还是希望知道真相的”,但“这种东西也没法做到100%消除谣言”。 值得一提的是,现在科技圈对于越来越多的AI造假还没什么强有力的动作。去年的一项审计显示IG、领英、Pinterest、TK和YouTube这些平台上只有30%的内容贴了“AI生成”的标签。Hany Farid觉得扎克伯格和马斯克可能觉得标上这个标签会影响流量,“他们自然也就没动力去做了”。