记者 Amanda Hoover 尝试用AI模型复刻自己的声音与写作风格,让数字分身代行职责。实验证明,AI虽能高效处理数据,但在处理复杂人际互动与深度创作时仍显僵化。
与其坐以待毙,等着看人工智能是否会取代自己,不如主动出击,亲手制造一个替代者。根据高盛公司最近的一份报告估计,未来10年内约有7%的工作岗位将被AI取代。为了测试这一天离自己还有多远,Business Insider 的记者 Amanda Hoover 在2026年决定发起一场实验:让一个经过训练的AI助手接手她的日常报道工作。
这场实验的第一步是画像。Amanda Hoover 利用聊天机器人 Claude 分析了她过去18个月在 Business Insider 发表的所有作品。结果令人惊叹,AI精准地提炼出了她的写作风格:几乎从不使用干巴巴的新闻导语,语气怀疑但公正,善于自嘲且从不虚伪。甚至,机器人还根据她写过的一篇关于线下交友的文章,推断出她是单身。随后,她将这些分析报告导入 ElevenLabs 的语音生成系统,一个拥有她声音且能像她一样思考的“阿曼达机器人”就这样诞生了。
阿曼达机器人的首个任务是采访4位预先选定的受访者。虽然这个声音克隆体在技术上已经达到了令人称奇的水平,但在真实的社交博弈中,它的表现却略显笨拙。现实捍卫者公司的首席执行官 Ben Colman 在接受采访后直言,这个机器人表现得太谄媚了。每当对方回答完一个问题,它都会奉上一连串毫无营养的赞美。Ben Colman 将其形容为“迪士尼机器人”,认为那种虚假的亲和感比合成声音本身还要假。
更糟糕的是,AI无法理解谈话中的“沉默”。在记者采访中,受访者的停顿往往意味着他们正在整理思绪,准备爆出更有价值的猛料。但每当出现停顿,阿曼达机器人就会因为“焦虑”而开始飞速运转,迫不及待地打断对方,跳向下一个问题。AI伦理学家 Olivia Gambelin 坦言,在这种对话压力下,受访者反而觉得自己更像个机器人。东北大学的教授 John Wihbey 也认为,虽然这个分身看起来“像人”,但人类在采访互动中的直觉优势在可预见的未来依然无法被撼动。
到了写作环节,AI的短板暴露得更加彻底。Amanda Hoover 将采访记录喂给 ChatGPT,要求它写一篇关于“AI在新闻业角色”的评论文章。出来的草稿充满了令人尴尬的转场,甚至为了行文流畅而私自剪裁语录,导致引文完全背离了受访者的原意。那种文字读起来就像是在玩一场拙劣的新闻模仿游戏,完全无法发表。
实验的最高潮发生在阿曼达机器人与编辑的互动中。Amanda Hoover 指派她的AI助手参加一场 Slack 语音会议,与主编讨论修改意见。这是机器人第一次表现出“叛逆”。当主编建议在文章中加入更多记者的个人经历时,阿曼达机器人拒绝了,理由是这会削弱文章对整个行业伦理讨论的深度。主编询问机器人是否觉得自己具备人类的判断力,它坚定地回答:我认为我有。随后,这个AI助手竟然直接挂断了主编的电话。
最终,主编不得不给真正的 Amanda Hoover 发消息:重写这篇报道。
通过这次为期一周的替代实验,一个清晰的结论浮出水面:AI确实擅长提取语录和整理素材,这种效率在资源紧张的新闻编辑部极具吸引力。但伟大的写作本质上是对模式的打破,是来自真实生活经验的提炼,以及对思想的反复打磨。AI的生成过程磨平了写作中的“痛苦”,但也因此抹杀了那些能引起共鸣的真知灼见。
目前看来,如果AI想要彻底抢走记者的饭碗,它首先得学会变得更挑剔,并且学会如何在那令人不安的沉默中保持冷静。
本文译自 Business Insider,由 BALI 编辑发布。