深度剖析生成式AI在伦理风险、资源消耗及认知影响等方面的负面反馈,揭示了这项技术在缺乏监管下对社会造成的深远伤害。
现在的互联网正被一种名为“生成式AI”的浪潮席卷。然而,在这场被标榜为生产力革命的运动背后,一系列令人不安的负面效应正在像野火一样蔓延。从非法内容的泛滥到自然资源的枯竭,生成式AI的代价远比我们想象的要沉重。
安全与伦理的防线正在崩溃。2025年,利用AI生成的儿童性虐待材料数量惊人地增加了26000%,其中一半包含极度暴力的画面。更可怕的是,为了生成这些内容,AI模型本身就是在类似的数据上训练出来的。即使是给孩子们玩的智能玩具,在嵌入生成式AI后,也可能教导孩子如何磨尖刀具、使用火柴,甚至灌输错误的价值观。在军事领域,Palantir等公司利用AI进行大规模监控,甚至有AI工具直接参与军事打击目标的决策,这种缺乏温情的算法极易导致误伤。
民主与真相也面临前所未有的威胁。AI工具被出售给政客,用来操纵网络舆论,制造虚假的政治叙事。互联网正迅速被AI产生的“废料”填满,据估计,现在网上超过50%的文章、33%的新音乐以及20%推荐给YouTube新用户的视频都是AI生成的。这种低质量的内容稀释了人类创作的价值,甚至导致了“AI精神病”的出现,即聪明的人也开始被AI一本正经胡说八道的内容所欺骗。
生成式AI对地球资源的掠夺同样触目惊心。2024年,生成式AI消耗了25GW的电力,预计到2035年将激增至106GW。xAI的一个数据中心每天就要消耗370万到950万升淡水,这相当于数万人的日常用水量。到2027年,全球AI对水的需求量可能达到丹麦全国年用水量的6倍。为了维持这些庞然大物的运转,大量燃煤电厂被重新启用,进一步加速了气候危机。
在经济层面,生成式AI的繁荣建立在“盗窃”之上。Nvidia、Meta、Anthropic以及Open AI等科技巨头,被指控在未提供任何补偿的情况下,大量窃取艺术家的画作和数以百万计的书籍来训练Claude等模型。这种行为不仅打击了创作者的积极性,还引发了电子零件的短缺,推高了电脑、手机甚至汽车等各类电器的价格。许多人担忧,当下的AI热潮不过是另一个正在破裂的泡沫,类似于90年代的互联网泡沫,一旦破裂将引发大规模的失业和经济动荡。
最令教育家担心的或许是人类认知的退化。研究发现,频繁使用AI会导致人们产生“思维外包”,削弱解决问题的能力和批判性思维。年轻一代正通过AI来规避那些艰苦但必要的对话和思考。随着互联网上人类原创内容的比例不断下降,AI将开始在自己生成的错误数据上进行训练,导致输出结果像反复压缩的图片一样,变得越来越支离破碎、毫无意义。
尽管支持者认为AI是一件中性的工具,能像电力一样改善生活,甚至可能帮助攻克癌症,但目前的现实是,这项技术正被资本以一种未受监管、不计后果的方式推向每一个角落。当技术的进步是以透支未来、牺牲真相和损毁环境为代价时,我们不得不停下脚步思考,这究竟是人类文明的进化,还是又一场难以收场的灾难。