黑客利用大语言模型识别匿名社交媒体账号

虽然AI现在可以让黑客很轻松地识别出匿名的社交媒体账号,一项新的研究给人们敲响了警钟。虽然恶意黑客利用大语言模型——比如ChatGPT的底层技术——就能根据用户发布的信息,把匿名的网络用户和他们在其他平台上的真实身份对上号,AI研究人员Simon Lermen和Daniel Paleka指出,大语言模型已经让执行复杂的隐私攻击变得成本非常低,这迫使人们不得不重新思考什么才算得上是在线隐私。为了验证这个观点,他们在实验中把匿名账号输入AI,然后让它抓取所有可能的信息。比方说,假设有一个用户聊起在学校遇到的难处,还有带着他们的狗Biscuit去Dolores公园散步。AI就会去别的地方搜这些细节,然后高概率地把@anon_user42和已知的身份对应起来。虽说这只是个假想的例子,但论文作者也提到了一些现实中的情况:政府可以用AI来监控那些匿名发帖的异议人士和活动家,或者黑客能发起那种非常个性化的诈骗。AI监控现在发展得很快,计算机科学家还有隐私专家们都开始紧张起来了。因为这种技术是用大语言模型把个人在网上的各种信息拼凑在一起的,对普通人来说自己动手干这种事根本不现实。Lermen也提到过公众的信息在网上都能拿到,现在很容易被人拿来搞诈骗——比如说鱼叉式钓鱼,黑客冒充你信赖的朋友让你点进恶意链接。随着搞这种复杂攻击的门槛大大降低,只要能访问到现成的语言模型还有网络连接就行了。伦敦大学学院的Peter Bentley教授对这种技术的商业用途表示担心,“要是去匿名化的产品真搞出来就麻烦了”。有个问题就是大语言模型在给账号配对的时候经常搞错。Bentley警告说:“人们会被冤枉,被说成做了他们根本没做过的事情。”爱丁堡大学的Marc Juárez教授也提到了另一个担忧:这些大语言模型不光看社交媒体的数据,还能用到医院记录、录取数据这种公共资料上。他觉得这事儿挺吓人的:“我看这篇论文意思是说我们得重新考虑一下我们的老办法了。”其实AI也不是什么能彻底消灭线上匿名的大杀器。虽然大语言模型很多时候能解开匿名的谜团,但有时候也因为信息不够充足没法下结论。有不少情况下需要匹配的对象太多,根本没法缩小范围。加州大学伯克利分校的Marti Hearst教授说:“它们只能在同一个人在两个不同的地方分享了一模一样的信息的平台间搭起桥来。”尽管技术并不完美,但现在科学家们已经要求各机构和个人好好想想该怎么在这个AI的世界里保护好自己的数据隐私。Lermen建议平台先从限制数据访问做起:给用户下载数据设置限速、检测自动爬取、还有限制批量导出。不过他也提醒说个人用户自己也得小心点:在不同的平台上分享相同的细节时最好谨慎一点。