@ 2016.01.20 , 11:10
43

霍金:烦人简史

[-]
(Jim Cooke / AP)

史蒂芬·霍金又来了,说在接下来的几千年里,人类必将触发毁灭自己的灾难。这并不是这位世界知名的物理学家第一次宣传“人类离世界末日不远”。让我们来看看霍金以前说过什么,以及他为何应该改变言论。

在参与BBC的瑞思系列演讲(Reith Lecture)演讲之前,霍金接受采访,声称科学与技术的发展创造了“新的出事的方式”。这位科学家将矛头指向了核战争、全球变暖、基因改造病毒等威胁

尽管地球在某一年内遭受灭顶之灾的可能性很低,但可能性将在未来几千或几万年不断堆积,灾难或无法避免。那时,我们应该已经进入太空、住到其他星球上。所以人类还不会终结。但我们无法在接下来的几百年内建立起可持续运作的太空殖民地,所以我们现在还必须十分小心。

听起来似乎有那么一点问题。是的,他自称他相信人类能够找出新的防范危险的办法。但在提出这些我们未来可能遇到的不详的、可怕的事情时,他显得很轻松。指出这些风险并没有错——但他并没有给出详细和透明的应对方式,似乎想给我们带来一切在劫难逃的感觉。

[-]
(Lwp Kommunikáció / Flickr)

他在10年前就开始对人类做出警告。在2006年,他在网上公开发问

在一个政治、社会、环境都很混乱的世界,人类如何走过下一个100年?

一石激起千层浪,超过25000位网友发表了自己的看法。许多人对如此聪明的霍金都无法回答自己提出的问题感到十分遗憾。霍金后来写到。“我不知道答案,所以我提出这个问题。”

接下去的2007年,他在香港的一个记者招待会上告诉听众:“我们正处在日益严峻的危险之中,突然爆发的核战争、基因被改造过的病毒、或是其它尚未遇见的危险都能将生命从地球上抹去。”

霍金也对人工智能感到十分担忧。他说过AI可能成为“人类历史上最大的错误[1]。2014年
霍金与物理学家Max Tegmark和Frank Wilczek一起,宣称

“人工智能可以比金融市场更懂得经济,比人类研究者发明更多东西,比人类领导人更懂得操纵,还能开发我们所不能理解的武器。人工智能的短期影响取决于由谁来控制它,而长期影响则取决于它是否能够被控制。”

去年,霍金曾号召人类对AI进行监管[2],并联名签发了公开信[3], 提出要严格禁止开发“不完全受人类控制的攻击性自主化武器”。

[-]
(Age of Ultron (2015))

不是所有的威胁都来源于自家。除了小行星和彗星[4],霍金还讲过我们需要为外星人的侵略感到担忧[5]。在2010年 《Sunday Times》的采访和2015年《El País》的采访中,霍金将这段话各说了一遍[6]

看看自己,我们就能知道智慧生命会发展到多么恐怖的地步。在我的想象里,他们居住在巨大的飞船里,消耗光了自己星球上所有的资源。那些先进的外星人很有可能变成游牧者,到处征服和殖民任何可疑触及的行星……如果外星人造访地球,那么结果可能像哥伦布登陆美洲大陆一样——对于美洲原住民而言可不是一件好事。

在这些语录中,霍金很明显地对人类持着沮丧的态度。在传记《Stephen Hawking: His Life and Work》中,他表示电脑病毒应被认作一种生命形式:“人类只创造过这么一种生命形式,而它所做的一切就是在进行摧毁。这或许揭示了人类的本性,因为人类照着自己的形象创造了它。”

[-]
(Independence Day (1996))

照霍金那么说的,我们要早点离开这艘即将沉默的船。他多次强调,为了保障自己的未来,我们需要离开这颗行星,开始殖民其它的世界。“如果不迈进太空,我们就没有未来。

确实,霍金是当今世界最著名的科学家,他的任何言论都会得到各国媒体的特殊待遇。他的想法也不是“无中生有”(或“黑洞中生有”)。在过去15年里,越来越多的欧洲科学家们开始关注所谓的“生存风险”(existential risks)。曾经是危言耸听的言论,如今正在渗透进教育机构和学术界。

牛津大学的哲学家Nick Bostrom在2002年发表了极具影响力的论文《生存的风险:分析人类灭绝的情景(Existential Risks: Analyzing Human Extinction Scenarios),激起了此类研究的热度。Bostrom认为科技进步的加速将人类推向了一个新的时期,其中的危险或许无法避免。不断涌现的新的威胁将让地球文明无法向宇宙传播。


马丁·里斯爵士的TED Talk: 我们能阻止世界末日吗?

德高望重的皇家天体物理学家马丁·里斯爵士(Sir Martin Rees)于2003年出版的 《我们最后的时光(Our Final Hour),以及2008年Nick Bostrom和Milan M. Cirkovic共同编著的《全球灾难风险(Global Catastrophic Risks)都是对这个题材影响深远的书籍。

研究这方面问题的哲学家,科学家和未来学家们,则集中在英国的牛津未来人类学院(Future of Humanity Institute)和剑桥生存风险研究中心(Centre for the Study of Existential Risk)。并未得到其他国家的重视。在美国也仅有伦理学和最新技术研究所(Institute for Ethics and Emerging Technologies)在进行关注。

霍金不是一个人在战斗,但他所处的地位如此之高,以至于他对未来的警告会对我们大家都产生影响。问题在于,我们让这位德隆望尊的人物持续地在不提供解决方案的情况下,发表这些沉重的声明。这样下去,他最终留下的将会是一个失败主义者,甚至是厌恶人类者的姿态。

当然,在趁还来得及的时候把话说出来是必要的。但霍金不应该只停留在宣扬坏消息的地步上。从今往后,让我们希望他能动用他的大脑,讲出一些积极有用的东西。

相关链接:
[1]煎蛋,2014:《霍金:上帝粒子会葬送地球乃至整个宇宙》
[2]煎蛋,2015:《霍金:人工智能百年内超过人类》
[3]煎蛋,2015:《霍金等学者呼吁警惕人工智能军备竞赛》
[4]煎蛋,2010:《霍金再次预测地球灭亡》
[5]煎蛋,2010:《霍金说:外星人存在且具危险》
[6]煎蛋,2015:《面对外星人,霍金也拿不定主意》

[zzjeff via gizmodo]


给这篇稿打赏,让译者更有动力
支付宝打赏 [x]
您的大名: 打赏金额:

3.8
赞一个 (23)

TOTAL COMMENTS: 43+1

  1. 3042772

    挪亚造方舟的时候,旁人说:嘿嘿嘿嘿,神经病。

    [132] XX [14] 回复 [0]
  2. 3042781

    wtf……

  3. 小哥
    @2 years ago
    3042784

    100年足够我约了.

  4. 暴力街区
    @2 years ago
    3042786

    老货喜欢吧自己拿不定的事来说事啊····

    [3] XX [20] 回复 [0]
  5. 排骨
    @2 years ago
    3042791

    霍金:船票在手,坐看众生挣扎。

    [24] XX [0] 回复 [0]
  6. 3042794

    desperate for public attetion

  7. 3042795

    人工智能是目前最大的隐患……

    一旦诞生,基本上是无可控制指数一样成长。

    [27] XX [3] 回复 [0]
  8. 3042796

    解决方法人家早就说了啊,宇宙殖民啊。地球没有未来

    [19] XX [0] 回复 [0]
  9. lautherf
    @2 years ago
    3042798

    跟我一起死~

  10. 逗比
    @2 years ago
    3042799

    这就是你要成仙的理由?
    恩,因为不管有没有时间,凡人都开始捡屎了

  11. 老蛋
    @2 years ago
    3042800

    @pzmao: 然后洪灾过去了,我们仍然在说“呵呵”……

  12. homsus
    @2 years ago
    3042801

    科学家也是人,工作会受情绪影响,去年刚变成房奴的导师,讲课总是侧重于失效分析批判悲观的很,在没买房之前,总是介绍新的技术怎么怎么的好怎么有前景。

    若是被困在这个该死的椅子上数十年,你也想不到什么积极的东西,人类的前景一片黑暗。

    [144] XX [7] 回复 [0]
  13. 3042812

    他以为他是谢顿么

  14. 3042831

    AI肯定碾压人类的。
    不开发AI的组织,会被开发AI的组织碾压。人类不会停止AI研发。

    注定的。

    [44] XX [1] 回复 [0]
  15. 3042841

    @homsus:

    数学上,业内经验上默认大概35岁左右是一个数学家达到的巅峰,之后大部分人基本再也没什么重要的产出了。更有很多数学家可能还没有到这个35岁的诅咒就在之前解决了一个大问题,可跟着就耗尽枯竭了,此后他思想完全没办法从那个问题中绕出来,徒劳地在学术界挣扎一阵便从事教学。

    没法创新以后,也有的人马上退休转行了,更多的有人不甘心从此寂寂无名,他们便把注意力放到科普上,自然在公众形象中取得了很大的成功,但在学术界大家已经认为他死亡了,在这朝夕变幻的时代(有些领域譬如数论除外),一经掉队基本上很难再跟上,之后他已经很难在学术界有影响力了,邀请他参加会议只是礼仪性质。对于数学家来说,是很忌讳写数学类科普的,一般来说这表示了你已经不在第一线了。

    我不熟悉物理情况,但有限的跟物理系的学生打交道上,依稀注意到了威滕有一些很重要的论文会引起震动,而霍金的名字我却已没听见许久了。

    [64] XX [6] 回复 [0]
  16. 3042856

    老人家担心人们发和平呆,没事多抛些屎进人们脑坑让大家自己去捡

    [10] XX [1] 回复 [0]
  17. 零下伊度
    @2 years ago
    3042880

    霍金:我想挂个牌子跟大家说我快死了。The end is near.
    媒体:霍金说人类的末日快到了….

    [38] XX [1] 回复 [0]
  18. 姬十三
    @2 years ago
    3042881

    老头儿这么有闲不如把你的文章用普通人看得懂的语言再出几本书吧

  19. SubzeroOnce
    @2 years ago
    3042906

    无比赞同霍金的观点,人类距离毁灭越来越近了

  20. 3042910

    老头脑子不好使了

  21. jerrybie
    @2 years ago
    3042953

    说不定人类对于更高层的智慧来说就是AI。

  22. 阿南
    @2 years ago
    3042954

    不赞同,人类需要人工智能,这意味着哪怕有一天人类自己灭亡了,人工智能还能继续维持下去,他们的外体可以比人类身体更坚硬更适应环境生存,他们的能源能支持他们更长久的寿命,这样才有时间去到更遥远的外太空.

    人工智能的未来其实也是人类的未来.

    [15] XX [4] 回复 [0]
  23. ……j
    @2 years ago
    3042964

    看见标题的时候,我一读:“凡人捡屎”

  24. 煎蛋
    @2 years ago
    3042992

    技术达到一定程度时,毁灭比修复轻松的多。

    两种蛋蛋已经摸到边缘了。将来更多能秒杀的东东被研究出来以后,相当于增大了N倍地球被玩坏的概率。

    从数学上讲,算得上通俗易懂。

  25. untiteld
    @2 years ago
    3043004

    @: 所以必须要有一个公约。

  26. 菠萝奶滋
    @2 years ago
    3043020

    @阿南: 恩。。麻烦的情况就是 在人类还没有灭 而人工智能已经成熟的时候 其实很可能人工智能比人类优秀 也应该取代人类 只是被取代的是不是能开心 是不是能把AI当作是自己的进化版本而高兴 毕竟人类是一个如此热爱区分异己的物种。。

  27. 碧蓝右耳
    @2 years ago
    3043050

    我的观点与楼上几位不同。我认为在人工智能发展到相当于本时代人类的智力水平的时候,那个时代的人类的智能水平和身体素质早就大大提升了。
    没听明白,我的意思是说,到了机器人能够相对今日人群造反的那个时代,我们必定早已经把自己的大脑和身体进行改造了。堪比今日的大型超级计算机的大脑,配上机械战警都没法比拟的躯体,那个时代的人类与今日人类一定大不相同。物质基础,生活方式,思维方法都是完全不同的。就像1900年的人们无法想象今日人人有手机出入有飞机的状态,从而猜测今人面临的问题总是带有局限。我们今天想象人工智能造反的情况,完全就是忽略了,人类也是会进化的呦。

  28. jawchen
    @2 years ago
    3043068

    其实这些我都懂——在看电影的时候

  29. 方便面
    @2 years ago
    3043149

    @碧蓝右耳: 你在阐释你自己的阿基里斯悖论吗?而且把AI和人类放在在平行时空互相对比实力很也是很逗的呢。

  30. 方便面
    @2 years ago
    3043155

    @碧蓝右耳: 你在阐释自己的阿基里斯悖论吗?而且把AI和人类放在平行时空比较实力也真是搞笑呢。

  31. 3043228

    霍金: I only speak what you need to hear…

  32. Spector
    @2 years ago
    3043283

    看了楼上的装逼评论我到觉得人类必亡于自己的傲慢

  33. 迷你亚当
    @2 years ago
    3043295

    你有时间简史么,有就去呀。

  34. 叫我Smith啊
    @2 years ago
    3043297

    最后的链接真是良心啊

  35. 3043301

    象牙塔里家伙的真想多了,未来30年新增的黑黑和绿绿人口就足够人类文明毁灭了

  36. sixsquare
    @2 years ago
    3043331

    随机应变,人类是有思想的生命体,会改造新的世界

  37. 3043399

    杞人忧天

  38. 3043429

    如果将来把记忆性格传输到人工智能,也就是机械人生活下去,那人还是人吗?那样的未来是好的吗?

  39. 姬十三
    @2 years ago
    3043556

    @Squid: 你也太笑看放开二胎的蝗虫繁殖能力了

  40. 二狗
    @2 years ago
    3043603

    找到问题永远是最难的事情,但仅仅是相对于找到他的答案。不过有的答案对于大部分人而言也的确太难了。这不怪小编不知道,但如果要求别人替我们自己去找到问题后还要求对方替自己找到答案的话,就有些过了。毕竟这些问题不仅是霍金的问题,同时也是全人类的问题,所有人都有责任去寻找他的答案,不管是天才还是白痴!

  41. 及焰
    @2 years ago
    3044051

    病毒为自己有能力从一个坏掉的细胞跑到一个好的细胞而沾沾自喜,移动到越来越多的细胞,并表示自己已经有细胞间随意交通的能力,所以绝不会灭绝。直到有一天医生对宿主说:你这是癌症晚期啊……

  42. 3044580

    就当听一小老头在瞎扯

发表评论


24H最赞