研究显示,大语言模型能跨平台精准识别匿名用户。通过分析零散文字,AI能以高达90%的准确率锁定真实身份,网络匿名制正面临挑战。
长期以来,在网络上使用化名被认为是一种足以保护隐私的手段。人们习惯在不同的社交平台上扮演不同的角色,觉得只要不实名,就能安全地参与敏感讨论。然而,这种安全感可能即将烟消云散。最新的研究发现,大语言模型正在以令人惊讶的准确度撕掉网络用户的匿名面具。
这项研究的核心在于通过算法关联不同平台上的特定个体或帖子。研究结果显示,AI在去匿名化方面的表现远超传统方法。过去,识别匿名用户需要人类调查员辛苦收集结构化数据,或者依靠复杂的算法匹配,而现在的AI只需要分析非结构化的自由文本即可完成。在实验中,AI成功识别用户的召回率高达68%,而预测准确率甚至达到了90%。
这意味着,你在网上留下的每一段文字都可能成为出卖身份的线索。这种AI代理可以做到以前极难完成的任务:从一段看似匿名的访谈记录出发,一路逆向推导出这个人的真实身份。与老旧的去匿名化方法不同,AI能够像人类一样浏览网络,利用推理能力将潜在的个人信息片段拼接在一起。
研究人员利用多个公开数据集进行了测试。其中一个实验收集了Hacker News和LinkedIn的个人资料,通过跨平台引用将它们联系起来。即使研究人员剥离了帖子中所有的显性识别特征,大语言模型依然能精准匹配。在另一个针对*Netflix*微身份数据的实验中,AI展现出了远超经典的去匿名化攻击的性能。
针对Reddit用户的实验则揭示了一个残酷的规律:你在网上说得越多,就越容易暴露。以Reddit的电影讨论版块为例,如果一个用户只讨论过1部电影,AI的识别准确率约为3.1%;但如果这个用户讨论过10部以上的电影,识别率就会猛增至48.1%,准确率高达90%。
甚至在一些极其模糊的场景下,AI也表现出了可怕的洞察力。在安斯罗皮克公司关于人们如何使用AI的一份问卷调查中,研究人员仅根据参与者提供的通用信息,就成功识别出了125名参与者中的7%。Simon Lermen指出,虽然7%看起来不高,但考虑到AI是基于如此广泛且一般的信息完成的识别,这本身就是一个值得警惕的信号。随着AI系统不断进化,这种搜索和验证身份的能力只会越来越强。
研究人员警告说,这种技术的普及将彻底颠覆现有的在线隐私模型。普通用户通常认为只要不主动公开个人信息,化名就是足够的防火墙。但大语言模型使这种假设失效了,因为它们可以自动抓取网页并验证提取到的各种身份信号。如果这种能力被滥用,政府可能以此锁定在线批评者,公司可能构建超精准的广告画像,而攻击者则能发起高度个性化的社会工程学诈骗。
为了应对这一威胁,研究人员建议平台方采取限制API访问频率、检测自动抓取行为等措施。同时,大语言模型提供方也应建立护栏,拒绝执行去匿名化的请求。当然,对于个人用户来说,更现实的建议可能是大幅减少在社交媒体上的发言,或者养成定期删除旧帖子的习惯。
正如盖蒂图片社提供的插图所暗示的那样,在AI驱动的监控时代,隐私的围墙正在倒塌。计算机安全领域正因为大语言模型引发的攻击能力而不得不重新审视,而现在看来,个人隐私保护也面临着同样的迫切需求。
本文译自 Ars Technica,由 BALI 编辑发布。