@ 2016.02.20 , 16:06
24

如何对机器人进行道德教育?讲故事呀!

[-]

为机器人阅读故事?那么你会被当成一个十足的怪胎。而教授机器人阅读故事?那么你将得以预防一场机器人末日大灾难。这个堂吉诃德式(即空想而不切实际)的想法被命名为“堂吉诃德”,它是由佐治亚理工学院的娱乐智能实验室的主任Mark Riedl所研发的一项技术。

研究人员基于以往的“谢赫拉莎德”研究,进一步发展出“堂吉诃德”技术。它会为机器人呈现一些故事,而这些故事所阐述的内容是被人们所认可的寻常行为,比如帮助他人、准时不迟到、不要毁灭人类等等。这些故事来源于网民,他们为角色选择了正确的、或被社会所认可的行为,就像“choose your own adventure”(选择你自己的探险)这则故事一样。

如果人工智能所做的决定和故事中的良好行为相匹配,那么该技术就会对其进行“奖励”(基本上就是些机器金星)。但如果它们的行为不符合故事中的道德准则,那么他们便会对该行为进行消极强化。Riedl表示:

我们相信,人工智能必须适应人类的文化、接纳特定社会的价值观念。在这种情况下,它们将尽力避免无法被人们所认可的行为。在没有人类用户进行指导时,赋予机器人阅读和理解我们的故事的能力或许是最为权宜的办法。

在其它方面,这些故事对人工智能而言同样颇具价值。公司正在探索如何用儿童故事来教授人工智能进行语言解析,以使它们成为更好的虚拟助理。因此,从伦理道德到办公业务,这些基础故事都可以帮助机器人更好地融入我们的世界、而非毁灭我们的世界。

从此以后,机器人和人类过上了幸福的生活。

本文译自 popsci,由译者 蛋花 基于创作共用协议(BY-NC)发布。


给这篇稿打赏,让译者更有动力
支付宝打赏 [x]
您的大名: 打赏金额:

4.7
赞一个 (6)

TOTAL COMMENTS: 24+1

  1. 荒川
    @2 years ago
    3068037

    哈哈图片是飞出个未来里的恶魔

  2. cilwhite
    @2 years ago
    3068044

    让他自动阅读煎蛋会怎样

    [21] XX [0] 回复 [0]
  3. kaphy1114
    @2 years ago
    3068048

    机器人觉得故事毫无逻辑,于是毁灭了全人类

    [52] XX [0] 回复 [0]
  4. 艾伦
    @2 years ago
    3068055

    @cilwhite: 会变弯

    [38] XX [0] 回复 [0]
  5. 3068060

    可惜人类伦理学逻辑上是不自治的, 所以, 先来顿烧烤.

    [19] XX [2] 回复 [0]
  6. alpha_boy
    @2 years ago
    3068064

    太过荒谬……人类的奖励行为,给予好吃的食物,或者给予当众表扬等等,前者摄入能量愉悦肉体,后者会导致多巴胺分泌产生还是会愉悦肉体(假定被教育者的世界观基本正常)。

    给机器人一些金星,机器人会感到快感么?不能的话这种教育有何意义?至于教育机器人要么好好做人类奴隶,则可以获得一些象征性的铁皮镀铜奖章,否则人类就毁灭你——现有的机器人根本就没法理解这么复杂的概念,倘若有一天能理解了,

    估计头一个念头就是,老子干嘛不毁灭了大多数人类,然后对剩下的少数玩物标本做这种所谓的金星奖章训练?

    避免机器人革命的最好办法,是不要发展出人类智能级别的强AI来……如果真发展出来了,恐怕要给“他们”真实的好处了,和人类高智能劳动者同等级的工资什么的……

    不过不知道高智能机器人要工资后做什么?给自己升级CPU?这个行为本身还是没有快感的吧?或者雇佣科学家给他编写一个把提高生存几率的各种行动视为有快感的行为的模拟算法?然后再升级CPU?

    [11] XX [15] 回复 [0]
  7. 思彦
    @2 years ago
    3068067

    来来来机器人,我给你讲个刷机的故事

    [21] XX [1] 回复 [0]
  8. 火箭军
    @2 years ago
    3068069

    @??: 不行的话,再来第二顿!。、

  9. 不匿
    @2 years ago
    3068074

    想念Fry和Leela

  10. 6FX2002
    @2 years ago
    3068077

    其实吧,最简单的机器也有自我激励,失控就飞车.搞电的应该都懂,但是机器是没有感情的,你给他编程,说有什么规则,碰到规则矛盾就内存溢出死机.所以说人工智能并不可怕,要注意的是开发人工智能的人,他给机器定的什么规则
    我们谈人工智能的时候,其实还是谈的人们自己

    [16] XX [4] 回复 [0]
  11. 3068078

    感觉还是类似神经网络的算法。大量样本训练(故事)。

  12. 一美刀
    @2 years ago
    3068089

    这个故事好感人

  13. 3068098

    这个讲故事 说道理 不知道对bender有用没?

  14. 3068106

    我倒是很想知道以后要如何区分人类和机器。
    就好像游戏里的AI,你用枪指着它,它一样会做出颤抖,或者逃跑甚至是反击的反应
    但这些都是提前输入的,难道人就不是吗,比如小孩根本不知道火的危险,受到了伤害才知道,哦,这个东西不能碰。
    或许有人会说机器没有自我意识不能自我选择

    那人呢?比如我不喜欢现在的工作,想辞职去旅行,可旅行的代价就是没钱没社保,甚至再也找不到工作,而旅行的目的或许只是为了逃避。因为现在工作压力太大,导致我想逃离现在的处境。
    但综合考虑所有所能选择的依然只能是继续工作。

    然后出现了一个新的信息,这个新的信息,比如是我辞职旅行回来确保能找到更好的工作,或者是我中了奖,或者是其他的什么。由于这个新的信息,让我的运作路线出现了改变,这和机器输入了新的指令有什么区别?

  15. 3068132

    从前啊,有一个小机器人,它呢不听主人的指挥,后来被拆了。好,故事讲完了。

    [18] XX [3] 回复 [0]
  16. 3068142

    那个恶魔有手办的,就是图片的样子。亚马逊可购入

  17. 年年
    @2 years ago
    3068146

    @??: 自治还是自恰

  18. 写写画画
    @2 years ago
    3068172

    @alpha_boy: 哪有这么麻烦,赋予ai奖励中枢不就好了

  19. 银之
    @2 years ago
    3068225

    机器变污了

  20. 龙傲天
    @2 years ago
  21. 火柴专家
    @2 years ago
    3068278

    我认为,当科技到达一定水平的时候,区分机器人和人类是毫无意义的。因为两者无论在精神上和身体上都极为相似,没有什么好区分的。如果硬要分的话,可以这么说:人的意识诞生于神经细胞网络中,人工智能的意识诞生于计算机中。

  22. 鱼蠢
    @2 years ago
    3068283

    @6FX2002: 给机器人编入一个奖励系统当然可以,但是程序是可以修改的,如果奖励系统被移除了怎么办?这与人类可不一样

  23. Norkie
    @2 years ago
    3068294

    改代码,,

  24. 3068980

    @??: 不自治哈哈哈哈哈哈哈哈哈哈哈哈哈哈

发表评论


24H最赞