@ 2018.01.06 , 18:00
18

都是算法的错?

公元九世纪的波斯学者穆罕默德·本·穆萨·阿尔·花剌子模(Muhammad ibn Musa al-Khwarizmi)是人类历史中做出过重要贡献的数学家。在花剌子模去世几个世纪后,他的作品被引入了欧洲,教会了欧洲的学者如何使用阿拉伯数字、小数和代数方程,为今天令人眼花缭乱的技术为奠定了理论基础。他名字的拉丁版已经成为生活中常用的名词:算法algorithms

2017年,因为媒体的推波助澜,这个原本纯洁无暇的学术用语平添了几分阴险的意味。

事情始于上个月美国众议院情报委员会上的质询。在调查俄罗斯干预2016年美国大选举的各方听证会上,专家组的民主党人士Adam Schiff将这一矛头掷向了Facebook的律师Colin Stretch:“俄罗斯利用社交媒体成功干涉我们国家的大选,你们也要负部分责任。正是你们的算法乐于推送那些骇人听闻的内容,才激起公众的恐慌与愤怒。”

社交巨头所用的算法会放大人们的恐惧,并被外国势力用来操控我们的选民么?!

这些东西听起来无疑是非常危险的。

以前,正是基于马尔可夫链和蒙特卡洛方法的排名算法缔造了 Google 。而今,人们开始越来越担心科技公司的力量,“算法”成为了党同伐异的借口,还使得花剌子模的名字毫无道理地背负上原罪。

今年 2 月在TED演讲上,《Weapons of Math Destruction》一书的作者、数学家 Cathy O’Neil 提醒我们要警惕出现“算法垄断”。Google为儿童推荐YouTube的视频算法引起了公众的不满,它删减掉并无不妥的 LBGT 内容,反而提供了儿童不宜的链接。

与此同时,研究人员展示了机器视觉算法会汲取对性别的刻板印象,以及政府在刑事司法等领域使用算法来蒙蔽公众的知情权。

难怪奥巴马前总统的首席战略家David Axelrod上周在尼曼新闻实验室(Nieman Journalism Lab)对媒体和政界的未来感到担忧时,他说道:“一切都在推着我们走向算法为我们定制的产品。这让我非常担心。”

马里兰大学的教授Frank Pasquale说:“大选真的让人们理解了算法系统的威力。”这个问题并不是全新的——2011年人们就开始讨论Facebook抑制用户思想的“过滤泡沫”了。但是Pasquale说,现在有一种更强烈的感觉,算法可以而且应该被质疑和被要求承担起社会义务。他说,一个分水岭是欧盟最高法院2014年的一项裁定,授于公民拥有像谷歌这样的搜索引擎的“被遗忘权”。 Pasquale称这是一场早期的“算法系统和公共义务的小规模冲突”。

当然,对Facebook和其他工具的指责不应该只针对算法或数学,而应该落实到创建它们的人和公司上。这就是为什么Facebook的首席律师出现在国会山上,而不是把他们的云服务器搬到议员面前。

“我们不能把机器学习系统视为孤立的存在和纯粹技术性的东西,”微软研究员兼麻省大学阿姆赫斯特分校的教授Hanna Wallach说,他试图激发人们对人工智能伦理的思考。“他们已经成为固有的社会技术的一部分。”

有证据表明,硅谷的算法工程师们很清楚这一点。塔夫茨(Tufts)大学的人类学家 Nick Seaver 深入到科技公司内部,以了解工作人员对于算法的观点。“人类也是受算法支配的,”一位受访的工程师说,“算法使我成为我,而不是我的同事。”

然而Facebook和其他科技公司所承受的压力有时会让算法成为人类和企业决策错误的替罪羔羊。一些人抱怨这个词,暗示或明说,仿佛算法有一种自主性。这是不幸的,因为算法的“洪水猛兽”除了可以转移公众的视线,让使用它们的公司从责任中脱身,对我们毫无帮助。它们是信息时代使我们在数据风暴里前行的唯一途径。算法提供了一种优雅而有效的方式来完成任务,使世界变得更美好。

曼哈顿社区学院的数学教师Audrey Nasar指出,诸如用来查找肾脏捐赠者和接受者配型的算法,显然对社会是有益的。

Nasar说:“对我来说算法是一种礼物,是解决问题的方案。”他发表了一项关于如何鼓励高年级学生进行算法思维的研究。这或许才是花剌子模认可的使用方式。 他在他著名的世界上第一部代数学教科书中写到,数学将有助于“人们在继承遗产、分割财产、诉讼和交易以及所有彼此贸易的情况下解决相关的各种问题”。

我们需要算法。 2018年,希望我们能够让公司、政府和使用它们的人来承担责任,而不要让这个词语污名化。

本文译自 wired,由译者 majer 基于创作共用协议(BY-NC)发布。


给这篇稿打赏,让译者更有动力
支付宝打赏 [x]
您的大名: 打赏金额:

4.7
赞一个 (5)

+1

  1. 3666103

    算法能有什么错,都是人的错

  2. ⊙ω⊙
    @5 months ago
    3666105

    看完感觉好像说得是私人信息保密的问题啊

  3. you_know_who
    @5 months ago
    3666107

    舆情控制是一门成熟的产业!

  4. 食品级怪蜀黍
    @5 months ago
    3666120

    看到并无不妥那里,大概确定是白左又在高 潮了

  5. 纯路过
    @5 months ago
    3666128

    我为了想知道什么是「大人们的恐惧」而点进来……

  6. 少打野
    @5 months ago
    3666152

    Google带头说都是算法搞得,我们没干预
    问题是
    算法本身就有偏见
    Google创造了很多邪恶的东西

  7. 3666221

    Ly93eDQuc2luYWltZy5jbi9tdzYwMC83ODUwMTQ1YWd5MWZtem9qa245aTBqMjE2bzExeWp5eC5qcGc=

  8. 3666231

    @少打野: 谷歌那是小巫见大巫

  9. George_Costanza
    @5 months ago
    3666271

    并无不妥的 LBGT 内容? 煎蛋药丸

  10. 3666280

    总觉得stereotype翻译成 刻板印象 怪怪的。

  11. 百里酚酞
    @5 months ago
    3666291

    谷歌在中国网民心中自带伟光正光环,在美国人心中则堆满了各种阴谋论

  12. 3666388

    Google标准体现了“当你凝视深渊时,深渊也在凝视你”。

    从生意角度看,Google当年放弃中国市场是项了不起的选择。看看苹果现在的各种跪舔,的确令人不齿。但与此同时,Google也过于重视自己的道德优越感,它在变成它最不喜欢的东西,过滤操纵信息。比如反对Antifa或支持全美家庭协会、相对保守观念的文章会在很多页后才出现,而同篇文章在必应上可能在首页第二篇。但搜索商业或其他类型内容,Google和必应的差异就没那么大。只看Google,会觉得全美家庭协会是疯子,而antifa是一群正义使者。

    龙枪里说正义会死于傲慢,的确。

    算法有问题,但不是文中所说的问题。文章里提到对算法的批评,希望算法只提供被某特定人群道德观认可的内容,才是互联网的黑暗面。

  13. 3666445

    和“网信办约谈今日头条”异曲同工啊

  14. 3666985

    @you_know_who: 有些确实是算法的问题。
    算法的设计是为了更多的点击量,所以你常看什么,爱看什么,它就推送什么。
    今日头条,知乎,B站……都是这样。
    流量就是钱啊。
    如果你喜欢看萌宠胖娃,那没问题。
    如果常看政治,那就容易视野受限,加深偏见。

    而舆情控制是水军,删帖等灰产。
    比如Facebook的删帖封号就很明显偏向民主党。

  15. 姬十三
    @5 months ago
    3667417

    在中国这叫贩卖焦虑

  16. 3667513

    @Edo:
    其实 在google reader时代这些都不是事 我想看啥 我关注的博客报纸网站会保证提到这些热点问题 但是现在这个碎片化之后的世界 过滤了某些信息之后 我真的不知道哪里能再翻出来

  17. 3669134

    算法仅仅是揭露了真像,真像是人民的敌人

  18. 3669933

    全赖本泽马。

发表评论


24H最赞