@ 2015.09.01 , 16:00

警惕:轻信机器人危险多

在今年二月份,在一位韩国女士躺在地上睡觉时,她家中的清洁机器人将她的头发吸了进去,导致她不得不拨打紧急求救电话。物理学家史蒂芬·霍金曾警告说,人工智能设备的出现意味着人类的终结,这一预测或许多多少少也体现在了这只清洁机器人身上。

[-]

我们很容易将自己内心最深处的秘密告诉人形机器人——它们可爱的面庞看起来是那样单纯。

人工智能技术给人类带来危害的例子不胜枚举,最常见的情况便是欺骗人类用户——而非直接对人类构成一些身体伤害。如今在社交媒体和其他网络平台上,犯罪分子设计的恶意机器人已经随处可见,例如,移动约会应用Tinder上就总是会有一些假扮成人类的机器人,其目的是骗取用户的摄像头权限或者是信用卡信息。

与此同时,越来越多的证据能够表明,我们人类非常容易将自己内心最深处的一些秘密告诉人形机器人——尤其是图样图森破的儿童们,但这些人形机器人们可爱的面庞下却可能隐藏着一些邪恶的目的。那么,面对这样的现状,我们如何才能避免上当受骗呢?

一旦打算在家里使用人工智能机器人,你就最好别抱有太大的希望。电影以及一些营销材料或许会让我们误以为我们能够和机器人展开一些复杂的互动。然而实际上,要让机器人们真正具备较强的社交能力,科学家们仍然需攻克很多难关——而这则需要我们漫长的等待。所以说,由于理想与现实之间存在着巨大差异,我们必须时刻保持头脑的清醒且不能被表面的假象所迷惑——我们往往会误以为这些机器人都是全自动很智能的,但实际上,它们的某些活动却可能仍是由人类远程控制的。

[-]

应该对自己的谈话对象和内容保持十二分警惕。

有些人在与这些无情的设备交流时会感觉十分良好,他们有时甚至会有意无意地透露出一些极其隐秘的信息,但若他们知道了有些机器人背后可能是由人类在操控着,相信他们必定不敢再这样做了。

由此可见,当人们错误地判断了机器人的行为来源时,问题就会变得格外严重。一款按月付费的服务——“隐形男友(Invisible Boyfriend)”便是个相当好的例子,它可以通过一个人造恋人向用户们发送一些浪漫的短信或是语音邮件。尽管该公司最初的计划是希望能够实现服务的全面自动化,但碍于技术水平不足,该服务在实际运作过程中还是得借助人工来发送浪漫信息。然而并不是所有的用户都能够明白这套系统的运作方式。再加上媒体们近来对人工智能的大肆炒作,以及很多的证据都表明了现代机器人有着以假乱真的能力,因此很多人可能会错误地认为,和他们对话的就是真的是机器人了。

当机器人有能力记录你的一举一动时,我们就需要努力思考更多的问题,如它们将会如何存储和分享这些信息?有些信息记录设备的初衷可能只是为了娱乐,但不法分子或居心叵测之人却很容易将它们用于一些不堪的目的。例如可穿戴相机Nixie,它可以随时从手腕上起飞,拍摄你周围的鸟瞰照片。不难想象,这样的技术很可能会被心怀不轨的人所利用。

[-]

随着机器人技术的进步,人类很可能需要成立一个专门的部门来为这些融入社会的机器人负责。

现在,当我们处于有记录设备的场合时,我们往往能够保住自己的秘密。然而,若我们习惯了有机器人陪伴的那种生活状态,习惯了这些召之即来但挥之不一定去的“亲密朋友”,情况又会变成什么样?

如果以我们的上网记录为参照,这些信息完全可以也已经成为了广告公司们的金矿。而如果我们逐渐习惯了有机器人陪伴的生活,那么我们的一举一动、一言一行都有可能遭到过度的曝光。

那么我们以什么样的方式将机器人引入我们的家庭、公共场所和社交生活才最安全?我们应当对这些智能机器保持谨慎,不能单纯地认为它们会成为我们的贴心伴侣,并且有着和那些有能力欺骗和操纵我们的机器人划清界限的觉悟。

我们还或许应该考虑着扩大消费者保护机构的触角,或者创办一种以监管机器人为核心目标的政策体制。正如广播的诞生催生了美国联邦广播委员会(Federal Radio Commission)一样。随着机器人技术的不断进步,我们可能也需要设立一个专门的部门来为这些不断融入社会的机器负责。这样一来,当机器人试图窃取我们的信用卡,或者吸住了我们的头发时,我们就可以向主管部门投诉以保护我们人类的权益。

[-]

本文译自 BBC,由 卧月眠海 编辑发布。

支付宝打赏 [x]
您的大名: 打赏金额:
赞一个 (10)