黑客能看穿匿名社交媒体用户身份

人工智能的发展让那些心怀不轨的黑客能轻而易举地看穿匿名社交媒体用户的身份。Simon Lermen和Daniel Paleka的研究敲响了警钟,他们发现像ChatGPT背后的大语言模型这种工具,能通过分析用户发布的内容,非常准确地把他们在网上的匿名身份和真实生活中的身份连起来。论文中举了个例子:假设有人发了条状态说在学校过得不太顺,还晒了带小狗Biscuit逛Dolores公园的照片,系统就会利用这些线索去别的平台查找匹配项,最后大概率能把@anon_user42这个虚拟账号对应到某个已知的身份上。 这种自动化的攻击手段让隐私保护变得非常脆弱。大家不得不重新想想,在这个技术时代,什么样的隐私才是真正可靠的。Lermen提到,个人信息在网上随手可得,很容易被坏人利用搞诈骗。比如黑客可以假扮成你信任的朋友发链接给你点。以前这种复杂的事情需要很高的技术门槛,但现在只要有网络连接和能访问公开的大语言模型就能操作了。 伦敦大学学院的Peter Bentley教授对这项技术可能被滥用表示担忧。他觉得如果去匿名化的产品被开发出来推向市场,问题会很严重。还有一个问题是模型的匹配准确率不一定高,可能会冤枉好人。 爱丁堡大学的Marc Juárez教授指出了另一个隐患:这些模型不光看社交媒体的信息,还会去抓取医院记录、录取数据这些非社交平台的资料。这些地方的数据本来就不太匿名了,在AI时代的标准下根本就不合格。 不过AI也不是什么万能武器。虽然它在很多情况下能把人扒出来,但有时候数据不够用就推断不出来。加州大学伯克利分校的Marti Hearst教授说,模型最多也就是在两个平台里发现同样的事情才会关联。 尽管技术并不完美,专家们还是呼吁大家行动起来。Lermen建议平台方面要控制数据访问量:可以限速下载、检测机器人抓取或者限制一次性导出大量数据。个人用户自己也得留神别在不同地方发同样的细节。 虽然人们的隐私状况看起来越来越危险,但科学技术本身并不等同于解决方案。我们应该学会在这个充斥着算法的时代里如何更好地保护自己的隐私和安全。