@ 2018.11.25 , 10:00

推特上的机器人水军

推特上的机器人水军

虽然人们常常怀疑,社交媒体上的机器人账号会使流言传播得更加迅猛,但最近一项研究第一次为这种观点提供了有力的证据。

研究人员在11月20日的《自然通讯》网络版上报告说,那些会自动相互转发的推特账号,在2016年美国总统大选期间和之后的各种谣言的传播过程中负有责任;它们使虚假信息看起来更具热度,人类用户认为转发的人越多说明其内容就越可信,所以会参与到信息的传播过程中。

从乐观的角度来看,研究表明,打击机器人水军有助于对抗网络谣言。

印第安纳大学布卢明顿分校信息学和计算机科学家Filippo Menczer和同事收集了2016年5月至2017年3月期间1360万条Twitter帖子。所有这些消息都与已知定期发布虚假或误导性信息的网站上的文章相关联。然后Menczer的团队使用Botometer——通过大量推特用户的行为来识别机器人水军的程序——判断每位转发上述帖子的用户是否是人类。

找出隐藏在我们之中的机器人,同时揭示出了自动化帐户如何鼓动人们传播虚假新闻。

机器人水军的一种策略是,在信息发布后,立即大量转发,营造出被大量人群认可的假象,并借此赢取人类用户的信任和转发。

研究人员发现,在Twitter上大火的谣言,最开始转发的帐户中至少有一半是机器人;至少10秒钟之后,大多数的跟进转发开始来自真人用户。

机器人的第二个策略是提高曝光率,它们会在发布信息时@拥有众多粉丝的头部用户,要么在回复对方的时候,附带假新闻的链接。头部用户的帖子引发高阅读量,总有人会在回复时看到链接并出于好奇而点击进去;如果头部用户转发了机器人的帖子,那效果就更加明显了,Menczer说。

结果表明,封禁机器人账户有助于打击谣言的传播。事实上,用数学模型描述Twitter中的信息流,Menczer的团队发现,只要干掉10000个疑似机器人的水军就能使劣质信息的转发数量减少约70%。

有时难以区分机器人水军和正常的人类用户,因此,“我们有时会弄错,”Subrahmanian说。相反,Twitter官方可以要求用户完成相关验证码测试,以证明他们不是机器人。

麻省理工学院社交网络信息传播专家Sinan Aral表示,打击机器人水军可能有所帮助,但人类自身也在谣言的传播过程中发挥了关键作用。“我们自身就是这个问题的一部分,我们应该担负起责任。”他说。

本文译自 sciencenews,由译者 majer 基于创作共用协议(BY-NC)发布。


支付宝打赏 [x]
您的大名: 打赏金额:

赞一个 (6)

24H最赞