3人被骗6万!这件事是最高法公布的2026年电信诈骗案例之一

最近网上好多人都在说AI虚拟人的事儿,尤其是老年人,被各种假的东西骗得惨兮兮。你现在在刷短视频,有时候都分不清到底是真人还是AI弄出来的。现在这技术发展太快,监管也跟不上,虚拟和现实的界限越来越模糊了。 你看那些诈骗分子多猖狂,他们把AI技术都用到了坏事上。有的盗用明星的脸和声音去卖三无产品;有的用AI把明星的照片变成色情内容;还有的专门针对同行造谣。最近小鹏汽车不是被造谣模特拍色情照片吗?这种事情简直就是潘多拉魔盒被打开了! 普通人被造黄谣的事儿每天都在发生。比如之前一个女的地铁照片被AI一键脱衣后全网疯传。还有个网站几万会员天天上传这种照片视频,目标就是身边的人。这种情况下,诈骗分子简直是如虎添翼。 今天有个热搜话题——3人被骗6万!这件事是最高法公布的2026年电信诈骗案例之一。老人被骗了钱还不止,更伤心的是他们对家人毫无保留的信任被利用了。 比如江苏邳州的李奶奶接到一个陌生电话,对方一开口就喊奶奶。李奶奶听声音和语气认定是自己孙子,结果被骗了5万块。还有一个老人接到“孙子”的电话说在学校打架把人打伤了要赔钱,结果老人给了4万块才发现被骗。 这些案例都显示,AI技术让诈骗变得更精准高效了。2025年全国AI语音诈骗案同比增加了470%,老年人受骗率超过了38%,平均每单损失12.6万元。语音克隆工具现在几十块钱就能买到,还有其他获取声音的途径比如骚扰电话、社交平台语音等。 更吓人的是个人信息泄露问题。一旦信息泄露,诈骗分子就能精准打击。他们为了规避转账监管还派人上门收取现金。比如去年小柴报道过一个案例——被“表哥”开视频骗走30万! 这位网友收到表哥的私信说急需周转借30万。他开视频验证发现确实是“表哥”,结果把30万转过去了。转完后对方又要35万,最后发现账号被封禁才知道被骗了。 生成一个虚拟人现在也很容易了,几个小时加上十来张照片就能搞定。看了这些案例小柴真觉得感慨啊:AI对大多数人来说还是娱乐工具,但对诈骗分子来说已经变成了降本增效的手段了!