Julia Angwin 起诉 Superhuman,因其未经许可利用专家名义生成低质 AI 建议,此举严重威胁职业声誉并挑战法律边界。
屏幕上的“冒牌货”:一场不期而遇的职业危机
就在几天前,一行生硬且充满违和感的文字跳进了调查记者 Julia Angwin 的视线:“Meta 是否可能正悄悄地利用这些亲密信息来改进广告投放,或以看不见的方式助长其庞大的业务利益?”这段话不仅语法蹩脚,逻辑也异常模糊,充满了廉价的无端猜测。令她不寒而栗的是,这段文字并非出自她手,而是编辑工具 Grammarly 冠以她的名义向付费用户推送的修改建议。
对于一名职业作家而言,遣词造句的能力与洞察力不仅是生计所在,更是人格的延伸。然而,Grammarly 在未打任何招呼的情况下,私自将她的职业声望和思维模式封装成了可售卖的数字产品。这种“思想深伪”行为发生在她完全不知情的状态下,是对一个文字工作者职业身份的赤裸掠夺。这种侵权行为绝非孤例,在 Julia Angwin 深入挖掘后,一张由知识精英组成的受害者名单随之浮出水面。
被“收编”的专家:Superhuman 的影子编辑团
技术巨头通过掠夺知识精英的声望来为自己的产品强行背书,这种商业模式带有典型的掠夺底色。Grammarly 的母公司 Superhuman 将多位知名专家的身份整合进了付费服务的“编辑气泡”中,企图利用他人的专业光环获取商业利益。除了 Julia Angwin,被制作成 AI 版本的专家还包括著名小说家 Stephen King、已故女性主义作家 bell hooks、前微软首席隐私官 Julie Brill、弗吉尼亚大学数据科学教授 Mar Hicks 以及资深媒体人 Kara Swisher。
讽刺的是,Julia Angwin 竟然是读到 The Atlantic 等媒体的报道才惊觉自己成了该服务的“虚拟编辑”。这种在黑盒中运行的身份窃取,让个人权利在算法面前显得脆弱不堪。该项服务在未获授权的情况下运行了 8个月 之久,持续利用这些专家的名字牟利。但这并非法外之地,即便在 AI 狂奔的今天,传统的法律武器依然展现出了反击的韧性。
法庭见:跨越世纪的“肖像权”反击战
法律在科技浪潮中虽然常常显得滞后,但有时 100年 前制定的规则反而能精准解决当下的技术困局。Julia Angwin 生活的 纽约州 拥有一项存在了 1个世纪 的法律——“公开权”,它明确禁止在未经许可的情况下将他人的姓名或形象用于商业目的。
目前,Julia Angwin 已作为首席原告,在 美国纽约南区联邦地区法院 向 Superhuman 提起集体诉讼,控告其违反了 纽约州 和 加利福尼亚州 的公开权法律。面对法律诉讼,Superhuman 首席执行官 Shishir Mehrotra 虽然坚称相关指控缺乏依据,但迫于 192个 甚至更多的负面评论与舆论压力,公司已经紧急下线了该功能。目前的法案如 No Fakes Act 主要侧重于数字肖像克隆,而 SAFE Act 则仅局限于学生运动员,这些法律在应对文本形式的身份侵权时都存在明显的死角。相比之下,丹麦 提出的一项新举措更具参考价值:该国建议修订版权法,允许人们对自己的身体、面部特征和声音申请版权。这种将“人本身”纳入版权保护的思路,或许是制约 AI 乱象的强效药。
从“双胞胎”到“废料怪”:AI 正在摧毁真相
AI 的核心缺陷在于它无法分辨事实与虚构。Grammarly 提供的建议与 Julia Angwin 严谨的专业风格格入其境。最令人愤怒的案例发生在一篇关于病患隐私的新闻报道中:AI 竟然建议删掉原本真实准确的报道首句,将其替换成一段关于虚构人物“Laura”看病就医的编造故事。
这种要求记者在纪实作品中“公然编造”的行为,是对新闻真实性的毁灭性打击。如果一名记者听信了这种建议,其职业生涯将就此终结。作家 Ingrid Burrington 在 Bluesky 上精准地将这种产物定义为“披着人皮的废料(sloppelgänger)”,意指其本质是 AI 垃圾信息,却伪装成了真人的智慧。这种算法逻辑正在抹平真相与谎言的边界,将深刻的思想压扁为廉价的词汇关联。这种打着专家旗号、大规模克隆他人灵魂并制造劣质内容的 AI 废料,必须在法治的框架下被彻底终结。
本文译自 The New York Times,由 BALI 编辑发布。