人工智能
微软想要消除AI中可能存在的偏见
微软正在加入谷歌和Facebook的行列,将自己重新定位成一家研发人工智能的前沿科技公司。
软件巨人最新的技术进展是尝试解决算法中出现的偏差——这种偏差就是,当开发者为人工智能提供的数据不够典型时,AI可能会潜移默化的滋生出反映了社会的偏见或不公平的观点。
据麻省理工学院技术评论称,该公司希望创建一种工具来检测并提醒AI工程师注意到可能会歧视某些人群的AI算法,诸如人力资源部门的AI出现根据种族或性别对新员工采取区别对待的态度。
很自然地,微软希望他们的工具能找到受过不适当训练的AI。
但微软用来寻找歧视算法的新算法,只能找到并标记已经存在的问题。现在在司法、医疗保健及其它领域,有些决定已经由AI做出,它们会直接影响到我们的生活。
举个例子,警方寻找连环杀手的智能系统,可能存在未被发现误导性的偏见,比如说,某些年龄和行为特征符合反社会人格的男性,在经验算法里被标记上一定的概率,是潜在的疑犯;但是,如果犯罪学家依凭的经验出了问题,赋予了分析对象过高的概率,就可能导致警力浪费在无辜的人员身上。而微软的新算法在系统未曾暴漏出问题之前,可能无能为力。
为了制造出真正公平且有利于与所有人的AI,需要给予开发前端更多的关注。
一种可能方式是,公司引入第三方进行代码审查。一家科技公司聘请一名外部的专家来分析他们的算法,寻找代码本身或者被输入数据存有的偏倚迹象。
麻省理工学院技术评论上发表的文章中提到的人工智能审查的想法在其他地方引起了关注,某些人工智能公司已经开始聘请监管人员来查看他们的代码。
但是这只对足够简单的AI系统有效。专家可以发现算法或数据不够平衡,因为他们能读懂并理解AI的代码和培训数据。对于更复杂的深度学习算法,这就不大现实了。
另一个可能的解决方式是,对具体制造人工智能的工程师进行更好的培训,以便他们能够更好地评判自己的观点和偏见,并防止它们被算法解释为事实本身。
这当然不是说,进行实际编程的人员正在暗搓搓地制造种族主义AI。但是,由于每个人都有某种隐含的偏见,帮助这些支撑起整个技术世界的工程师更好地梳理他们自己的世界观,所有人将会从中受益。
以上就是主要的解决思路,需要技术公司转变过去的开发方式,甚至也包括微软这样希望开发出偏见过滤器和偏倚分析算法的公司。
与此同时,研究人员和公司开始关注这个问题是一个好的开始。
本文译自 sciencealert,由 majer 编辑发布。