@ 2017.06.08 , 11:00

人工智能的黑暗面

人工智能的黑暗面
credit: 锐景创意

去年,一辆奇怪的自动驾驶汽车被投放到新泽西州蒙茅斯县安静的道路上。由芯片制造商Nvidia(英伟达)的研究人员开发的这辆实验车看似与其他无人驾驶汽车并没有什么不同,但与Google,特斯拉或通用汽车公司所展示的车辆相比,它显示了人工智能能力的升级。这辆车并没有遵循由工程师或程序员提供的指令。相反,它完全依赖于一套通过观察人类来教导自己驾驶的算法来完成学习。

让一辆车如此行驶是一个令人印象深刻的壮举,但这也有点令人不安,因为人类并不完全清楚汽车如何做出各项驾驶操作的决定。在机器学习的过程中,来自车辆传感器的信息直接进入人造神经元的巨大网络,处理数据,然后传递操作方向盘,制动器和其他系统所需的命令给车辆。结果似乎与人类驾驶员的预期反应相匹配。但是,如果有一天它做了一些意想不到的事情——例如,撞倒一棵树,或者停在绿灯前呢?根据现有的技术,可能很难找出原因。由于该系统非常复杂,即使是设计它的工程师也很难提取出单一车辆动作的原因。并且你不能向控制系统提问:目前,还没有合适的方法可以设计一个总能解释为什么的人工智能系统。

这辆车的神秘“思想”指出人工智能一个迫在眉睫的问题。被称为深度学习的底层AI技术,近年来已经被证明在解决问题上非常给力。它已被广泛应用于字幕处理,语音识别和语言翻译等任务。现在,人类寄希望于同样的技术来诊断致命的疾病,做出价值百万美元的交易决定,和其他无数的事情来改变整个行业。

但这不会发生,或者不应该发生。除非我们找到方法,使深入深度学习的技术更容易被创造者所理解,并对其用户负责。否则,难以预测何时会发生故障,而且一旦发生,后果将无法避免,甚至不堪设想。 因此,Nvidia的自动驾驶汽车仍处于试验阶段。

人工智能的黑暗面
credit: 煎蛋画师seηz

数学模型已经被用来帮助决定谁被假释,谁被批准贷款,以及谁被聘请工作。如果我们知晓这些数学模型,可能可以理解决策背后的原因。但是银行,军方,雇主等等正在将注意力转向更复杂的机器学习方法,使自动化决策完全无法解释。深入深度学习作为一种常见的机器学习方法,代表了一种从本质上不同的计算机程序。麻省理工学院教授塔米·贾科科拉(Tommi Jaakkola)说:“这是一个已经(和人类)息息相关的问题,未来关系将会更加密切。无论是投资决定,医疗决定还是军事决定,人类都不希望只依靠黑箱算法。”

能够询问人工智能系统如何达成结论似乎应是一项基本的法律权利。从2018年夏天开始,欧盟可能要求公司能够给用户提供自动化系统决策背后的解释。即使对于看似相对简单的系统,例如使用深度学习来投放广告或推荐歌曲的应用程序和网站,这或许也是不可能的。运行这些服务的计算机已经利用程序以我们无法理解的方式完成了这些。即使是构建这些应用程序的工程师也无法完全解释程序的行为。

这引起了令人难以置信的问题。随着技术的进步,我们可能很快会越过一个门槛——超过这个阈值,使用AI需要一次观念的飞跃。诚然,我们人类也不能总是真正地解释我们的思想过程,但是我们可以直观地信任和衡量人们。对于与人类作出决定方式不同的机器人来说,这现实吗?我们从未建造以造物者不明白的方式运作的机器,却又如何与这些不可预知和难以置信的机器沟通交流?

为了探索这些形而上学的概念,我去了塔夫茨大学,与著名的研究意识和心灵的哲学家和认知科学家丹尼特(Daniel Dennett)会面。丹尼特最新的一本书《从细菌到巴赫,再反回来》(From Bacteria to Bach and Back),一本关于意识的百科全书式论文,表明智力发展的一个自然部分是发明能使其创造者无法解释的系统。 “问题是,我们如何明智地创造出这样一套系统?对于机器和我们自己,分别有什么标准?”他在他那坐落于田园诗般的校园内,但是杂乱无章的办公室里告诉我。

他还有一个关于追求可解释性的警告。 “我认为,如果我们要使用这些东西并依靠它们,那么让我们尽可能地掌控机器如何以及为什么给我们答案。”他说。但由于可能没有完美的答案,我们应该像对待人类彼此一样谨慎的面对AI的决策——无论机器看起来有多聪明。他说:“如果机器不能比人类更好地解释其行为背后的原因,那就不能予以信任。”

本文译自 MIT Tech Review,由 雁洲向北 编辑发布。

赞一个 (15)