@ 2024.06.02 , 07:01

假新闻的背后:1%用户制造了80%的谣言

研究发现,极少数推特用户传播了绝大多数关于2020年美国总统大选的虚假信息。

你是否看到过这样一篇文章:Kamala Harris开玩笑说要杀掉Mike Pence和Donald Trump?或者另一篇文章说大量的特朗普选票被秘密转换给Joe Biden?如果你在2020年美国总统大选期间在社交媒体上看到过这样的故事,它们很可能来自一小部分影响巨大的用户群体。

根据今天发表在《科学》杂志上的一项分析,在超过60万美国选民的X(前称Twitter)样本中,仅仅约2000名“超级分享者”就传播了80%的假新闻内容。而这些发布者更有可能是女性和年长者——这挑战了社交媒体操纵者是年轻极右男性的刻板印象。他们的影响范围很大:数据集中超过20分之一的用户至少关注了其中一名超级分享者。

这项研究“为我们理解谁在社交媒体上分享不可靠新闻提供了宝贵的补充,”达特茅斯学院的政治学家Brendan Nyhan说(他未参与此项工作)。他还指出了一种可能的解决方案:“简单的转发限制可以约束此类信息的传播,而对绝大多数用户几乎没有影响。”

新的发现支持了之前的研究。例如,2019年,Ben-Gurion大学的计算社会科学家Nir Grinberg及其同事在一项研究中显示,在2016年美国总统大选期间的16,000多个Twitter用户样本中,80%的不可信网站新闻由仅仅16名用户发布。那么,这些超级传播者是谁呢?

为了找出答案,Grinberg的团队深入研究了一个包含66万名使用真实姓名和位置的美国X用户的数据集,这使得研究人员能够将他们与选民登记数据相匹配。研究人员发现,这些用户在任何一天分享的所有政治新闻中,约有7%来自不可信网站如Infowars和Gatewaypundit。而仅有2107名用户就传播了80%的假新闻。

平均超级分享者的年龄为58岁,比研究中的平均用户大17岁,且近60%是女性。他们也更有可能是注册共和党人(64%)而不是民主党人(16%)。鉴于他们在社交媒体上的狂热活动,科学家们认为超级分享者在自动化其帖子。然而,他们并未发现有规律的推文时间或间隔,表明自动化操作的可能性不大。“这是一个很大的惊喜,”研究共同作者、东北大学的心理学家Briony Swire-Thompson说。“他们真的坐在电脑前不停地点击转发。”

Grinberg补充道:“超级分享似乎并不是技术娴熟的个人一次性影响选举的尝试,而是一种对某些社会部分的信息生态系统造成污染的长期腐蚀性社会技术过程。”

萨沙·阿尔泰(Sacha Altay),苏黎世大学的实验心理学家(未参与此项工作),认为这一结果强化了大多数错误信息来自少数人的观点。“包括我在内的许多人以前就主张针对超级传播者。”Grinberg的团队估计,如果平台在2020年8月暂停超级分享者,它将减少选民看到的虚假选举新闻的三分之二。

限制超级分享的另一种方法是限制用户每天的转发数量。研究人员发现,如果限制设定为50次,近90%的假新闻超级分享者会受到影响,而整体用户中只有1%会受到影响。“我看不出允许人们在一天内无限制地转发有多大好处,”Grinberg说。这一限制不必是绝对的,布里斯托大学的心理学家Stephan Lewandowsky(未参与此项工作)表示。相反,X可以简单地询问用户是否真的想转发某些内容,使过程稍微复杂一些。

这种干预措施是否有效将取决于这些错误信息传播者的动机。“在2019年的论文之后,大问题是:‘这些超级分享者是谁?’” Swire-Thompson说。“现在的大问题是:‘他们为什么要这样做?’”

研究人员提出了几种可能的原因。首先,部分超级分享者可能真心相信他们所传播的信息,并希望通过分享来影响公众舆论。其次,社交媒体上的“点赞”和“分享”机制可能激励了一些用户不断发布内容以获得更多的关注和认可。最后,某些超级分享者可能有政治或经济动机,通过传播虚假信息来推动特定议程或从中获利。

尽管如此,限制虚假信息的传播并不仅仅是技术问题,还涉及到更广泛的社会和文化因素。Grinberg指出,社交媒体平台应与政策制定者、学术界和公众合作,共同寻找有效的解决方案。“我们需要从多个角度来解决这个问题,”他说。

总的来说,这项研究强调了少数“超级分享者”在传播虚假信息中的巨大影响力。通过了解他们的行为和动机,社会可以更好地应对虚假信息的挑战,并努力保护信息生态系统的健康。

本文译自 ,由 BALI 编辑发布。

赞一个 (6)