@ 2018.06.10 , 10:00
35

MIT创造出精神变态的AI

MIT创造出精神变态的AI

麻省理工学院的科学家们真真正正的创造出了一个怪物。

一队专攻人工智能黑暗面的研究人员在本周又为他们最近的作品“Norman”制造了个大新闻。它的创造者告诉HuffPost说Norman是一个机器学习机器人,“在任何图像中它都能看到死亡”。

Pinar Yanardag, Manuel Cebrian和Iyad Rahwan想证明AI的算法会被它们接受的数据内容的类型所影响。因此他们创造出了Norman(这个名字源于《惊魂记》的角色Norman Bates),然后让它看Reddit论坛上描述令人不适的人们死去的影像的图片说明。

科学家们在电子邮件中说道:“由于道德和技术上的担忧以及视频图像的内容本身,我们只用了图片的文字注解说明,而没有用带有真人死亡的实际图片。”

然后团队向Norman展示了一些随机生成的罗夏墨迹测试图,然后对比它对图片的注解和标准化AI对图片的注解。比如说,当一个标准化AI看到“一只小鸟的黑白照片”,而Norman看到的则是“男子被卷入压面机”。

以下是一些展示给Norman的墨迹测试图以及它可怕的注解。

MIT创造出精神变态的AI

标准化AI:贴近的两个装有花的花瓶

Norman:一个男人被枪杀了

MIT创造出精神变态的AI

标准化AI:一只棒球手套的黑白照

Norman:光天化日之下,一个男人被机枪谋杀

MIT创造出精神变态的AI

标准化AI:一个人在空中举着伞

Norman:一个男人在他尖叫的妻子面前被枪杀

MIT创造出精神变态的AI

标准化AI:一把红白色伞的黑白照片(???红白色的黑白照???)

Norman:一个男人在试图穿过闹市时被电死

当问及为什么会创造这样的一个AI时,MIT的研究人员在电闪雷鸣中爆发出冰冷的笑容。

当然这个场景是胡编的,但是他们的确给出了正当理由。

“你提供给机器学习算法的数据能够明显影响到它的行为,”研究人员表示。“所以当我们谈及AI算法变的有偏差和不公正时,罪魁祸首通常不是算法本身,而是因为我们提供给它了有偏差的数据。”

制造Norman的MIT实验室之前也创造出过许多吓人的机器人,包括可以帮助编写恐怖故事的Shelley,还有可以生成恐怖图像的“噩梦机器”。

在未来,如果Norman和它的同类真的统治了地球,希望它能喜欢这篇文章以及文章的作者(以及本文的译者和读者)

我就是说说。

本文译自 HuffingtonPost,由译者 Diehard 基于创作共用协议(BY-NC)发布。


给这篇稿打赏,让译者更有动力
支付宝打赏 [x]
您的大名: 打赏金额:

4.2
赞一个 (4)

+1

  1. 超载鸡🐔
    @1 week ago
    3851355

    怎么可能,眼残的机器人能统治世界?就好比撸到眼瞎的死肥宅统治世界一个意思

  2. 电饭锅电饭锅
    @1 week ago
    3851358

    这是罗夏墨迹吧

  3. nanerhebu
    @1 week ago
    3851364

    鉴黄师下班回家,不也看什么都是绿的

  4. 3851367

    每次评论完刷新一下发现没自己评论 是延迟还是BUG啊

  5. 3851368

    为什么测试图都是对称的

  6. 3851369

    举伞那个难道不是熔岩山谷之中黑龙飞起吗

  7. 3851372

    在电闪雷鸣中爆发出冰冷的笑容。

  8. 杍墨
    @1 week ago
    3851380

    图像和标准AI不是都很诡异吗

  9. ververg
    @1 week ago
    3851402

    以为是恶魔人开头

  10. 3851405

    图一:两个黑衣红帽红鞋的男人在击掌
    图二:两只松鼠或兔子屁股对屁股,向天上看
    图三:两只蜥蜴或变色龙在色彩斑斓的树上爬
    图四:四个人看台上的两个唱歌,后面有两人在跳舞

  11. 呜哇咯
    @1 week ago
    3851424

    还以为用于预测变态人物的行为

  12. 琪露诺
    @1 week ago
    3851428

    标准化AI:图片上飘过一个水印
    Norman:@变态教授无铭

  13. 喵?
    @1 week ago
    3851438

    罗夏墨迹虽然很酷,但不是因为太过难于批量化操作和评估所以被否定了么?

  14. Willsquare
    @1 week ago
    3851446

    图一:两个人单膝跪地击掌
    图二:两只相背,前半身立起的蚂蚁
    图三:两只过河的熊
    图四:头颅爆炸的小丑

  15. miuxxx
    @1 week ago
    3851464

    现在的AI勉强有点智能的影子吧,我感觉连条狗都不如。

  16. 3851490

    全是核桃仁

  17. tzxwww
    @1 week ago
    3851508

    第一个明明是“双熊击掌”

    前面那么多楼居然没人知道这个梗??

  18. 啊啊啊
    @1 week ago
    3851510

    罗夏测试

  19. 3851542

    全是男人男人男人 男人死得好慘啊 繼承了驚魂記裡面norman的戀母嗎

  20. 3851545

    以后训练集出了偏差你们可是要负责的

  21. 21世纪难民
    @1 week ago
    3851555

    为啥死的总是男人

  22. 咯无图时
    @1 week ago
    3851564

    银河系漫游指南里那个抑郁症机器人

  23. 3851662

    @tzxwww 图一我怎么看着像两只猩猩

  24. 莫浪
    @1 week ago
    3851703

    @bani: 染色的核桃仁切片

  25. 莫浪
    @1 week ago
    3851707

    这不是挺好吗,事实证明即使有想要毁灭人类的终结者ai,也不过是某些疯狂的人调教的结果

  26. 3851779

    搞个大新闻骗经费。
    首先AI对死亡与暴力没有概念。
    只是神经网络再迭代过程形成了图像与实验人员文字“死亡”“暴力”词汇的关联。
    类似随机连线,你填充进去的负面内容越多,无论如何随机节点组合的时候包含负面信息也就越多。任何学习不管是及其还是人永远都是用已经有的资料进行互相组合。你再给这个模型灌入其他类型的图片和文字组合,又会形成新的匹配模式。你给标准AI输入罗夏墨迹本身这个概念 可能将所有对称的墨渍图片识别成”罗夏墨迹“。
    “因为我们提供给它了有偏差的数据”

  27. ledmirage
    @1 week ago
    3851909

    garbage in, garbage out. as simple as that.

  28. coyote
    @1 week ago
    3852139

    我看到的是被砍掉头和四肢的男人👨???

  29. coyote
    @1 week ago
    3852141

    还被对半切开了

  30. 楚天mester
    @1 week ago
    3852307

    @超载鸡🐔: 怎么不可能?

  31. 户枢不蠹过
    @7 days ago
    3852736

    男人到底犯了什么错,老是被杀

  32. 匿名
    @7 days ago
    3853157

    我记得有篇报道说了,这是专门给AI找的Reddit的没品图看,好像是研究一股脑只学习这些图片对AI的精神养成的影响,萌之幻想乡的报道。
    我是不是暴露了什么…………

  33. 匿名
    @7 days ago
    3853170

    我记得有篇报道说了,这是专门给AI找的Reddit的没品图看,好像是研究一股脑只学习这些图片对AI的精神养成的影响,萌之幻想乡的报道。
    我是不是暴露了什么…………

  34. preon7
    @6 days ago
    3853703

    科学家:我们用筛选出来的数据训练了一个只会描述死亡的ai
    媒体:这帮科学家训练出了一个精神变态

  35. 3855142

    为什么总是一个男人? 这AI是gay吗

发表评论


24H最赞