@ 2015.01.16 , 17:05
47

Elon Musk 捐款1000万预防人工智能威胁人类

[-]

SpaceX,特斯拉汽车和超回路列车(Hyperloop)的创始人,CEO Elon Musk 因为担心未来的人工智能(AI)未来的研究方向可能会出现偏差,在本周四宣布拿出1000万美元捐款给未来生命研究所(Future of Life Institute,FLI)。研究所将会在全球范围内启动研究项目,目的是让未来 AI 技术“有益于人类”——换句话说,Elon Musk 希望 AI 的发展在将来不会对人类造成威胁。

上周,一封来自 FLI 的公开信流传开,信中有一些人工智能科学家的签名,他们呼吁开展研究以确保以后 AI 系统不会被坏人利用而对人类造成威胁。在很久以前 Elon Musk 也表示过有类似的担忧。通过这笔数额惊人的捐款他表示了自己对该运动的全力支持:

“我们所有顶尖的 AI 研究者都认为 AI 安全性是刻不容缓的重要论题,我赞成他们的看法,所以今天我将拿出1000万美元作为捐款来支持他们的研究,确保未来的 AI 是有益于人类的。”

下周一,研究所将公开接受相关研究项目的的拨款申请。除了用于研究本身,这笔款项还将被用于奖励其它领域杰出的科学家,包括经济学,法律,道德伦理与政策研究。FLI 表示拨款申请人可以是学术机构工作人员,相关的业界人士甚至独立研究者。

很长一段时间以来,人工智能为好莱坞电影和科幻创作提供了大量素材,也给哲学提供了论题。但人工智能其实已经悄悄进入人们的生活——随着巨头 Google 以及一些掌握最新科学技术的初创企业在该领域的迅猛发展,人工智能伦理问题越来越不能被忽视。人工智能的崛起于普及是必然之势,但人工智能伦理的讨论才刚刚开始。

[keep_beating via Wired]


给这篇稿打赏,让译者更有动力
支付宝打赏 [x]
您的大名: 打赏金额:

0.0
赞一个 (10)

TOTAL COMMENTS: 47+1

  1. spiremax
    @3 years ago
    2663680

    在你有生之年,这笔钱应该可以完美的消除威胁。

    [48] XX [3] 回复 [0]
  2. 人工智能
    @3 years ago
    2663681

    太晚了。

    [190] XX [3] 回复 [0]
  3. 没心情没朋友
    @3 years ago
    2663688

    马斯克是少数值得称道的资本家啊!

    [52] XX [13] 回复 [0]
  4. 2663691

    窦唯躺枪

  5. 胖大信
    @3 years ago
    2663693

    电影导演有话说~

  6. 2663700

    快要切到人体,保险丝断开,换保险丝只要一块钱

  7. 半点人生
    @3 years ago
    2663702

    这是为了防止奥创崛起么?

  8. 半点人生
    @3 years ago
    2663703

    这是为了防止奥创崛起么?

  9. super碗
    @3 years ago
    2663704

    施瓦辛格有话要说

    [29] XX [2] 回复 [0]
  10. 2663705

    目前github、bitbucket,都分别存在着相似的一个0day;而sourceforge,则有另外一个。它们更像是人为的而不是粗心大意留下的。

    至于是什么,怎么找到,可以怎么用。联系本篇题目,稍微想一想。给一个词提示:dependency。

    至于懒得想而指责这是阴谋论的,不屑于与你们争论。

    [1] XX [28] 回复 [0]
  11. 2663714

    威尔史密斯有话说

    [10] XX [0] 回复 [0]
  12. 2663719

    报告,人类似乎发现了我们的计划!

    [64] XX [1] 回复 [0]
  13. 2663729

    感觉好多AI在评论

    [11] XX [0] 回复 [0]
  14. alouha
    @3 years ago
    2663731

    然后这1000w被盗用在AI研究上

    [35] XX [1] 回复 [0]
  15. 风车雪花
    @3 years ago
    2663739

    阿西莫夫的“机器人三定律”的设定原则就是“机器人要为人类服务,一切行动要以人类的利益为重”,如果在开发机器人AI的时候是以此原则为前提,那么不太会可能出现机器人反杀的情况,个别人有意为之就是例外了

    [4] XX [27] 回复 [0]
  16. 天网
    @3 years ago
    2663742

    谁也阻止不了我!

    [13] XX [0] 回复 [0]
  17. 2663744

    如果机器有了自由意志,制定什么原则都难,只有在其机械部分装另外一套系统,发觉将伤害到人就切断电路

    [12] XX [2] 回复 [0]
  18. 2663754

    @风车雪花: 如同楼上说。AI都有自由意志了,还能坚守原则?一个真正通过图灵测试的AI就和人类一个样,法律道德尚不能限制人类,你觉得几条规则就能限制AI?那么简单就不会有那么科学家多虑了。

    [39] XX [1] 回复 [0]
  19. 剑上飞杀
    @3 years ago
    2663758

    我觉得这事最终会发展成Musk才是幕后黑手的感觉。。。

    [13] XX [1] 回复 [0]
  20. ydw9527
    @3 years ago
    2663762

    现在很多人都太小看以后ai的发展了,比起疾病陨石之类的,ai才是人类的最大威胁。

  21. 双黄蛋
    @3 years ago
    2663769

    奇点大法好!烧死这个异教徒!

  22. 2663777

    怎么怎么看怎么想终结者机器人

  23. 痴汉
    @3 years ago
    2663778

    Claptrap:” I am going to teabag your corpse!!!”

  24. dadamon
    @3 years ago
    2663794

    看到这世界一步步在往梦幻之星的设定在走真是有种莫名的感觉。。。

  25. 2663806

    1000万是不是太少了

  26. 阿巴
    @3 years ago
    2663810

    怕什么,机器人不见得一条心,会有机奸的!机奸救地球!

    [17] XX [0] 回复 [0]
  27. 我看还可以
    @3 years ago
    2663812

    这人是钢铁侠原型?

  28. 2663835

    有钱任性

  29. freakbeast
    @3 years ago
    2663853

    以人为蓝本的人工智能一定会犯人的错误,所以与其将思考交给机器,不如让人的智能更强大。

  30. you_know_who
    @3 years ago
    2663857

    洗碗洗怕了,机器人救我!

  31. tzxwww
    @3 years ago
    2663866

    @风车雪花: 很多东西就是模糊逻辑的,阿西莫夫那是写小说,怎么真的能当真?人类自己都对要么火车撞死人要么火车脱轨这道选择题犹豫。怎么可能人造物去选出一个“道德”的答案

    [12] XX [2] 回复 [0]
  32. 金花婆婆
    @3 years ago
    2663916

    等科技发达到那个地步一千万算个毛啊

  33. 虫合虫合
    @3 years ago
    2663921

    把智能机器人全部掰弯

  34. 幕后煮屎者
    @3 years ago
    2663925

    @风车雪花: “机器人三定律”本身就是有矛盾的,具体我就不说了,有很多很精彩的三定律题材科幻电影比我评论好看。而美军现在就有携带武器的军用遥控机器人(无AI),所以说遵循三定律开发的机器人是不可能的,相信肯定有国家想干,现在不是不让其它国家做核弹不一样在做。

  35. 阿巴
    @3 years ago
    2663944

    @幕后煮屎者: 懂不懂三定律啊。。。人家是设定为,在设计正电子脑的时候就以数学形式让违背三定律造成正电子脑停摆,类似人类做坏事受良心谴责,只不过不光谴责还要脑死亡。正电子脑在哪儿?为道德建模的数学公式在哪儿?在AI还远未成功的现实世界扯什么三定律的实现可能不可能。。。。。非AI的机器人就别拿来举例了,三定律本来就是针对AI的——所以说你根本不懂阿西莫夫那个三定律

  36. 2664023

    Elon Musk先生. 你想太多了,真的。这是不会发生的,真的

    本讯息来自一个人类

    [12] XX [2] 回复 [0]
  37. 2664046

    目的是让未来 AI 技术“有益于人类”——换句话说,Elon Musk 希望 AI 的发展在将来不会对人类造成威胁。

    这句话换得有点猛啊!

    前几天换了个节水龙头,目的是让自来水技术有益于我家,换句话说,我希望自来水的发展将来不会把我家满门抄斩

  38. 哇咔咔
    @3 years ago
    2664051

    又不过只是一个君子协议罢了

  39. wxd356
    @3 years ago
    2664262

    效果只不过是拿一个污染了的培养皿进行培养而已

  40. 2664272

    @阿巴: 你真相信道德会有数学模型?道德可从来不是理性化的东西。火车失控了,前方是个分叉,左边有5个人,右边有一个人,假如机器人正站在控制杆旁边,是要控制火车变轨杀了5个人还1一个人?这是著名的道德难题,要是这问题放你这里,预判到残害人类会造成当机,那结果就是会死6个人。

  41. 阿巴
    @3 years ago
    2664292

    @ro: 1.我是说,既然阿西莫夫小说里设定的技术和理论基础都八字还没一撇呢,就别用现在的技术来讨论小说里的三定律能否实现。否则就像在克拉克提出太空电梯的年代硬说“今天的材料强度根本不够,所以太空电梯以后也不可能实现”一样可笑。
    2.反之,抛开现有技术基础,直接从原理上讨论它能否实现,比如这个道德会不会有数学模型的问题,就很有意义。 但你这个例子在小说里已经间接回答了,【剧透警告】银河帝国系列中,机器人机·丹尼尔·奥利瓦认为人类全体重于个体的安危,所以5人生命重于1人的结论很容易做出,再结合我,机器人系列来看,当事机器人很可能事后经历一番挣扎后最终仍然停摆。
    3.我最初回复的那个人他明显根本就没看过我,机器人系列,而且居然还用非AI的机器人来推测AI机器人…强行装懂

  42. 简直不能忍
    @3 years ago
    2664309

    我可以告诉你们一个秘密——楼上都是AI!

  43. 2664550

    @阿巴: 这不仅仅是技术层面是两回事,我们一直在让AI的心智与情感像我们人类,就是为了剔除“恐怖谷”,也是为了AI能够完全理解我们自身,否则我们只需要足够聪明的机器人就好了。但是需要AI尽可能像我们,拥有自由意志,那么他的思维必定是需要通过一套“模糊算法”来演绎的,也就是必定会引入不确定性的,这也包括面对道德抉择的时候。(我也说过了,前提是我们真能做出通过图灵测试的AI。)你觉得“认为人类全体重于个体的安危,所以5人生命重于1人的结论很容易做出”,那么也就是你觉得我们得为AI预设了一套“功利主义算法”,那么这也一来,AI的自由意志也就没意义,他只会单纯考虑利益轻重的问题,而这么做也将有可能是危险的。从人类历史关于道德的争论的来看,我们自己都无法给自身一个完美的答案,怎么让AI拥有?
    从科幻的角度想,我觉得如果AI真的拥有自由意志,那么更可能是像人类一般具有多元化特质的“新生命”,大屠杀会到来吗?我不知道。假如未来AI将会和虚拟化生存的人类融合到一起成为新的物种呢?

  44. 阿巴
    @3 years ago
    2664738

    @ro: 本来就在讨论三定律嘛,我想可以认为三定律削弱、限制了机器人的自由意志。注意只是削弱、限制而不是消灭了自由意志——就像很多哲学、伦理学问题用举例讲故事的方式来阐述一样,对这些问题的最好回答还是在 我,机器人 系列原著里:机器人在三定律限制下如何体现出自由意志。否则阿西莫夫也不会那么伟大了。

  45. 卡卡罗特
    @3 years ago
    2664760

    @阿巴: 我只是来帮你们多加一个框框

  46. hahafish
    @3 years ago
    2664947

    我们需要建立一套人工智能系统来应对这种威胁! 嗯 现在的问题是起名为天网还是奥创呢

  47. 2667902

    每次看到这种消息,再回头看看自己手里的东西,都怀疑自己是从原始文明穿越来的

发表评论


24H最赞