@ 2018.01.06 , 18:00

都是算法的错?

公元九世纪的波斯学者穆罕默德·本·穆萨·阿尔·花剌子模(Muhammad ibn Musa al-Khwarizmi)是人类历史中做出过重要贡献的数学家。在花剌子模去世几个世纪后,他的作品被引入了欧洲,教会了欧洲的学者如何使用阿拉伯数字、小数和代数方程,为今天令人眼花缭乱的技术为奠定了理论基础。他名字的拉丁版已经成为生活中常用的名词:算法algorithms

2017年,因为媒体的推波助澜,这个原本纯洁无暇的学术用语平添了几分阴险的意味。

事情始于上个月美国众议院情报委员会上的质询。在调查俄罗斯干预2016年美国大选举的各方听证会上,专家组的民主党人士Adam Schiff将这一矛头掷向了Facebook的律师Colin Stretch:“俄罗斯利用社交媒体成功干涉我们国家的大选,你们也要负部分责任。正是你们的算法乐于推送那些骇人听闻的内容,才激起公众的恐慌与愤怒。”

社交巨头所用的算法会放大人们的恐惧,并被外国势力用来操控我们的选民么?!

这些东西听起来无疑是非常危险的。

以前,正是基于马尔可夫链和蒙特卡洛方法的排名算法缔造了 Google 。而今,人们开始越来越担心科技公司的力量,“算法”成为了党同伐异的借口,还使得花剌子模的名字毫无道理地背负上原罪。

今年 2 月在TED演讲上,《Weapons of Math Destruction》一书的作者、数学家 Cathy O’Neil 提醒我们要警惕出现“算法垄断”。Google为儿童推荐YouTube的视频算法引起了公众的不满,它删减掉并无不妥的 LBGT 内容,反而提供了儿童不宜的链接。

与此同时,研究人员展示了机器视觉算法会汲取对性别的刻板印象,以及政府在刑事司法等领域使用算法来蒙蔽公众的知情权。

难怪奥巴马前总统的首席战略家David Axelrod上周在尼曼新闻实验室(Nieman Journalism Lab)对媒体和政界的未来感到担忧时,他说道:“一切都在推着我们走向算法为我们定制的产品。这让我非常担心。”

马里兰大学的教授Frank Pasquale说:“大选真的让人们理解了算法系统的威力。”这个问题并不是全新的——2011年人们就开始讨论Facebook抑制用户思想的“过滤泡沫”了。但是Pasquale说,现在有一种更强烈的感觉,算法可以而且应该被质疑和被要求承担起社会义务。他说,一个分水岭是欧盟最高法院2014年的一项裁定,授于公民拥有像谷歌这样的搜索引擎的“被遗忘权”。 Pasquale称这是一场早期的“算法系统和公共义务的小规模冲突”。

当然,对Facebook和其他工具的指责不应该只针对算法或数学,而应该落实到创建它们的人和公司上。这就是为什么Facebook的首席律师出现在国会山上,而不是把他们的云服务器搬到议员面前。

“我们不能把机器学习系统视为孤立的存在和纯粹技术性的东西,”微软研究员兼麻省大学阿姆赫斯特分校的教授Hanna Wallach说,他试图激发人们对人工智能伦理的思考。“他们已经成为固有的社会技术的一部分。”

有证据表明,硅谷的算法工程师们很清楚这一点。塔夫茨(Tufts)大学的人类学家 Nick Seaver 深入到科技公司内部,以了解工作人员对于算法的观点。“人类也是受算法支配的,”一位受访的工程师说,“算法使我成为我,而不是我的同事。”

然而Facebook和其他科技公司所承受的压力有时会让算法成为人类和企业决策错误的替罪羔羊。一些人抱怨这个词,暗示或明说,仿佛算法有一种自主性。这是不幸的,因为算法的“洪水猛兽”除了可以转移公众的视线,让使用它们的公司从责任中脱身,对我们毫无帮助。它们是信息时代使我们在数据风暴里前行的唯一途径。算法提供了一种优雅而有效的方式来完成任务,使世界变得更美好。

曼哈顿社区学院的数学教师Audrey Nasar指出,诸如用来查找肾脏捐赠者和接受者配型的算法,显然对社会是有益的。

Nasar说:“对我来说算法是一种礼物,是解决问题的方案。”他发表了一项关于如何鼓励高年级学生进行算法思维的研究。这或许才是花剌子模认可的使用方式。 他在他著名的世界上第一部代数学教科书中写到,数学将有助于“人们在继承遗产、分割财产、诉讼和交易以及所有彼此贸易的情况下解决相关的各种问题”。

我们需要算法。 2018年,希望我们能够让公司、政府和使用它们的人来承担责任,而不要让这个词语污名化。

本文译自 wired,由译者 majer 基于创作共用协议(BY-NC)发布。


给这篇稿打赏,让译者更有动力 !
支付宝打赏 [x]
您的大名: 打赏金额:

4.7
赞一个 (6)

24H最赞