@ 2016.01.20 , 11:10

霍金:烦人简史

[-]
(Jim Cooke / AP)

史蒂芬·霍金又来了,说在接下来的几千年里,人类必将触发毁灭自己的灾难。这并不是这位世界知名的物理学家第一次宣传“人类离世界末日不远”。让我们来看看霍金以前说过什么,以及他为何应该改变言论。

在参与BBC的瑞思系列演讲(Reith Lecture)演讲之前,霍金接受采访,声称科学与技术的发展创造了“新的出事的方式”。这位科学家将矛头指向了核战争、全球变暖、基因改造病毒等威胁

尽管地球在某一年内遭受灭顶之灾的可能性很低,但可能性将在未来几千或几万年不断堆积,灾难或无法避免。那时,我们应该已经进入太空、住到其他星球上。所以人类还不会终结。但我们无法在接下来的几百年内建立起可持续运作的太空殖民地,所以我们现在还必须十分小心。

听起来似乎有那么一点问题。是的,他自称他相信人类能够找出新的防范危险的办法。但在提出这些我们未来可能遇到的不详的、可怕的事情时,他显得很轻松。指出这些风险并没有错——但他并没有给出详细和透明的应对方式,似乎想给我们带来一切在劫难逃的感觉。

[-]
(Lwp Kommunikáció / Flickr)

他在10年前就开始对人类做出警告。在2006年,他在网上公开发问

在一个政治、社会、环境都很混乱的世界,人类如何走过下一个100年?

一石激起千层浪,超过25000位网友发表了自己的看法。许多人对如此聪明的霍金都无法回答自己提出的问题感到十分遗憾。霍金后来写到。“我不知道答案,所以我提出这个问题。”

接下去的2007年,他在香港的一个记者招待会上告诉听众:“我们正处在日益严峻的危险之中,突然爆发的核战争、基因被改造过的病毒、或是其它尚未遇见的危险都能将生命从地球上抹去。”

霍金也对人工智能感到十分担忧。他说过AI可能成为“人类历史上最大的错误[1]。2014年
霍金与物理学家Max Tegmark和Frank Wilczek一起,宣称

“人工智能可以比金融市场更懂得经济,比人类研究者发明更多东西,比人类领导人更懂得操纵,还能开发我们所不能理解的武器。人工智能的短期影响取决于由谁来控制它,而长期影响则取决于它是否能够被控制。”

去年,霍金曾号召人类对AI进行监管[2],并联名签发了公开信[3], 提出要严格禁止开发“不完全受人类控制的攻击性自主化武器”。

[-]
(Age of Ultron (2015))

不是所有的威胁都来源于自家。除了小行星和彗星[4],霍金还讲过我们需要为外星人的侵略感到担忧[5]。在2010年 《Sunday Times》的采访和2015年《El País》的采访中,霍金将这段话各说了一遍[6]

看看自己,我们就能知道智慧生命会发展到多么恐怖的地步。在我的想象里,他们居住在巨大的飞船里,消耗光了自己星球上所有的资源。那些先进的外星人很有可能变成游牧者,到处征服和殖民任何可疑触及的行星……如果外星人造访地球,那么结果可能像哥伦布登陆美洲大陆一样——对于美洲原住民而言可不是一件好事。

在这些语录中,霍金很明显地对人类持着沮丧的态度。在传记《Stephen Hawking: His Life and Work》中,他表示电脑病毒应被认作一种生命形式:“人类只创造过这么一种生命形式,而它所做的一切就是在进行摧毁。这或许揭示了人类的本性,因为人类照着自己的形象创造了它。”

[-]
(Independence Day (1996))

照霍金那么说的,我们要早点离开这艘即将沉默的船。他多次强调,为了保障自己的未来,我们需要离开这颗行星,开始殖民其它的世界。“如果不迈进太空,我们就没有未来。

确实,霍金是当今世界最著名的科学家,他的任何言论都会得到各国媒体的特殊待遇。他的想法也不是“无中生有”(或“黑洞中生有”)。在过去15年里,越来越多的欧洲科学家们开始关注所谓的“生存风险”(existential risks)。曾经是危言耸听的言论,如今正在渗透进教育机构和学术界。

牛津大学的哲学家Nick Bostrom在2002年发表了极具影响力的论文《生存的风险:分析人类灭绝的情景(Existential Risks: Analyzing Human Extinction Scenarios),激起了此类研究的热度。Bostrom认为科技进步的加速将人类推向了一个新的时期,其中的危险或许无法避免。不断涌现的新的威胁将让地球文明无法向宇宙传播。


马丁·里斯爵士的TED Talk: 我们能阻止世界末日吗?

德高望重的皇家天体物理学家马丁·里斯爵士(Sir Martin Rees)于2003年出版的 《我们最后的时光(Our Final Hour),以及2008年Nick Bostrom和Milan M. Cirkovic共同编著的《全球灾难风险(Global Catastrophic Risks)都是对这个题材影响深远的书籍。

研究这方面问题的哲学家,科学家和未来学家们,则集中在英国的牛津未来人类学院(Future of Humanity Institute)和剑桥生存风险研究中心(Centre for the Study of Existential Risk)。并未得到其他国家的重视。在美国也仅有伦理学和最新技术研究所(Institute for Ethics and Emerging Technologies)在进行关注。

霍金不是一个人在战斗,但他所处的地位如此之高,以至于他对未来的警告会对我们大家都产生影响。问题在于,我们让这位德隆望尊的人物持续地在不提供解决方案的情况下,发表这些沉重的声明。这样下去,他最终留下的将会是一个失败主义者,甚至是厌恶人类者的姿态。

当然,在趁还来得及的时候把话说出来是必要的。但霍金不应该只停留在宣扬坏消息的地步上。从今往后,让我们希望他能动用他的大脑,讲出一些积极有用的东西。

相关链接:
[1]煎蛋,2014:《霍金:上帝粒子会葬送地球乃至整个宇宙》
[2]煎蛋,2015:《霍金:人工智能百年内超过人类》
[3]煎蛋,2015:《霍金等学者呼吁警惕人工智能军备竞赛》
[4]煎蛋,2010:《霍金再次预测地球灭亡》
[5]煎蛋,2010:《霍金说:外星人存在且具危险》
[6]煎蛋,2015:《面对外星人,霍金也拿不定主意》

[zzjeff via gizmodo]


给这篇稿打赏,让译者更有动力 !
支付宝打赏 [x]
您的大名: 打赏金额:

3.8
赞一个 (24)

24H最赞