咱们都快迈入2023年了,网上的AI视频越来越多,诈骗问题也跟着暴涨。虽然这两年咱们是见识过几次诈骗浪潮了,可这回情况真不一样。 DeepStrike公司那边给出的数据特别吓人:仅仅两年功夫,他们统计到的深度伪造视频数量就从50万飙升到了800多万,诈骗尝试量更是翻了3000%。这种由Sora这类AI工具生产出来的视频特别逼真,简直就是过家家似的,骗子们抓着机会赶紧把这些技术用在深伪诈骗上。 现在的Whatsapp用户得小心了,新的Android漏洞已经发布了紧急警报。其实自从Outplayed的高手们透露了这几个分辨AI生成视频的小窍门后,大家就应该多留个心眼了。你看那个Sora 2平台,发个几分钟的视频简直跟真的没两样。 以前大家觉得这只是个互联网小趋势,现在变成了几十亿美元的犯罪生意。骗子现在能用AI克隆声音和面孔,甚至还能假惺惺地模仿情感来骗钱。 其实咱们自己有时候也会被这种视频给蒙骗了。比如人物眨眼的次数太少、手指有扭曲感或者光照方向不对劲这些细节都能看出端倪。还有嘴唇跟声音不同步的时候,或者衣服在风中一动不动的样子,这些都是AI很难处理好的部分。 不过话说回来,现在的技术发展太快了。以前在好莱坞要花好几个星期才能弄出来的特效镜头,现在随便找个懂点技术的人都能在几分钟内搞定。像Sora这样的工具生成的东西简直让人分不清真假,这确实挺让人后怕的。 所以咱们得提高警惕啊。不管是在社交媒体上、在企业骗局里还是在恋爱关系里被骗的人都不少了。专家们警告说大家太信任视频了,所以才导致这个问题越来越严重。现在最让人担心的是那些明星参与的短片。比如Jake Paul和Michael Jackson这些名人的影像被人拿来随便用。 最让人哭笑不得的是Sora平台下载量已经破百万了。有些人还在搞那些含有马丁·路德·金的短片呢?这事儿一出平台都被搞得有点不知所措了。结果只好禁止用户制作跟这位伟人相关的视频了。看来这项技术带来的伦理问题真是挺棘手的呢!