思考|Echo报警疑案真相的背后,人类与AI共存的界限到底在哪?

  

  【猎云网(微信号:ilieyun)】810日报道(编译:田小雪)

  近日在新墨西哥州,亚马逊的家用智能助手Echo因为是否打电话报警这个问题,再一次成了大家关注的焦点。当时,一位丈夫在家里拿着枪威胁自己的妻子,在二人都没有报警的情况下,警察却找上了门。根据警方的叙述,是他们家里的智能助手Echo打电话报了警。

  对于这件事情,广大民众看法不一。但说到底,还是一个问题,那就是现在的我们究竟是否愿意让像Alexa一样的智能产品,时时刻刻听取日常生活中的对话,并且在它认为事情即将失控的时候主动打电话报警。

  对于一部分人来说,他们是不愿意的。现阶段,智能家居产品越来越多,它们与用户日常生活的联系也越来越紧密,因此隐私问题也就理所当然成了人们的争论重点。我们不禁想问,这些智能产品“入侵”生活的底线到底在哪里?它们是否真的可以具备自主报警的能力?

  借助这一次报警事件,我们正好来详细讨论一下家居智能产品所具备的各项功能,以及将来可能会引发的各种问题。

  报警人究竟是不是Alexa?

  根据当地警方的介绍,当时丈夫拿枪对着自己的妻子问她:“你是不是报警了?”,而Echo误以为主人是要报警,于是就拨打了911。而且,警方还表示肯定是有人对着智能助手大叫,命令Alexa拨打911。

  但是现在,我们单纯从技术这个角度来分析,上述情景其实完全是不可能发生的。首先,我们都知道,亚马逊的Echo需要特定话语才能够被激活,才能够执行所有由主人发出的命令。一般情况下,系统默认是Alexa,但用户拿到设备之后也可以自行修改,换成其他词语。其次,一台由Alexa提供技术支持的设备,只会打电话给通讯录中另一台同样由Alexa提供技术支持、同样具备打电话功能的设备。最后,也是最重要的一点,不管这些设备之间进行何种互动和交流,都是不会在公共交换电话网络中发生的,同样也不会在支持无线电话和有线电话的全球通讯网络中发生。

  换句话说,如果确实是Alexa报的警,那么,第一,警方也需要一台由Alexa提供技术支持的、正常运作的智能设备,第二,警方的设备恰巧保存在争吵当事人所购买的Alexa设备的通讯录当中。

  后来,警方又说是因为Alexa与家里的某种固定电话或者移动电话系统进行了对接融合,所以才自主拨打了911。这种说法,粗略听上去是没什么大问题,但如果同样从技术角度来仔细分析,就会发现也是站不住脚的,因为Echo目前还没有办法通过蓝牙,来支持任何电话功能。

  总之,那天确实有人报了警,但也确实不是Alexa。

  为什么Alexa无法拨打911?

  目前Alexa在打电话这一块,确实是存在不足。但日后,亚马逊肯定会进行相应的调整和完善。作为Echo最大的竞争对手,搜索巨头谷歌所设计的Google Home,就具备打电话的功能。用不了多久,它就可以让用户在美国境内自由拨打电话。当然了,1到900之间的号码,以及911报警电话,是不可以打的。

  至于不能拨打报警电话的原因,在很大程度上与国家管制有关。根据美国联邦通讯委员会发言人Mark Wigfield的介绍,提供911服务就意味着要遵守一系列技术管制。比如说,要确保所有的911电话线路经过正确的呼叫中心;再比如说,要确保每一个呼叫中心正确传输报警人的地理位置。更为关键的是,还要确保报警设备具有接听电话的功能,以便警方再打回去确认信息等等。虽然目前这些都是妨碍谷歌和亚马逊提供急救电话线路的重要因素,不过相信他们未来能够找到合理的应对方案,顺利解决这些问题。

  Susan Liautaud是一位来自斯坦福大学的伦理学家,专门为大型科技公司提供咨询服务,帮助他们在伦理行为和科技创新之间找到一种平衡状态。她表示,对这些智能产品开放911报警电话线路,还有一个潜在问题,那就是存在误报的现象。比如说,不懂事的小孩子会恶作剧,通过Echo拨打报警电话。波士顿警官Rachel McGuire表示,即便在没有这些家用智能产品的情况下,也会有小孩子用普通电话恶作剧拨打911。

  除了911这一块的弊端,Alexa有哪些益处?

  照这么说,难道Alexa就没有其他什么用处了吗?Dan Reidenberg是美国国家自杀预防网络SAVE的执行董事,曾经建议Facebook制定了相关的自杀预防政策。对他来说,Alexa带来的更多是机会和益处,能够帮助他们应对自杀和抑郁等心理健康危机。

  根据亚马逊Echo发言人Rachel Hass的介绍,公司现在已经与自杀和抑郁这些领域的专家进行了合作,往Alexa中融入了不少相应技术和功能。举个例子,如果用户对着Alexa说:“Alexa,我被人虐待了。”那它会回答说:“听到你这么说,我很遗憾。但如果你需要任何帮助,那就拿出手机拨打911,或者是家暴热线,号码是18007997233。”

  不仅如此,如果你告诉它,你非常抑郁,想要自杀,或者是心脏病犯了,它也会给出类似的回答。除了亚马逊的Echo,谷歌的Google Home同样提供类似的服务。甚至如果你告诉它,你被人强奸了,它也会给你提供特定的支持和帮助。

  以上我们介绍的都是亚马逊的Echo和谷歌的Google Home单独使用的情况。其实,市场上还有很多第三方公司,选择将Echo融入自家应用程序,为用户提供帮助和服务。比如说,有一项叫做Therapy的服务,能够让用户与Alexa进行对话,真实地表达自己的情绪和感受,并且听取Alexa给出的建议。

  隐私和底线问题

  通过上面的介绍和分析,我们知道只要不是拨打报警电话,这些家用智能助手确实能够提供不少帮助。但还有一个关键问题没有讨论到,那就是这些人工智能产品到底应不应该毫无限制条件地融入我们的现实生活?Alexa 是否能够在没有听到激活话语的情况下,对儿童虐待这类暴力事件进行正确的识别和判断?

  那些看重隐私、提倡伦理的人认为,在某些情况下,Alexa这类家用智能产品的行为,确实已经过线了。过线的结果,就是带来误报问题。比如说,把对于性行为的正常讨论当成是虐待。

  当然了,对于这个问题,不同人有不同看法。究竟这些智能助手未来的发展方向如何,在隐私这一块如何改善,还有待观望。

  本文来自猎云网,如若转载,请注明出处:http://www.lieyunwang.com/archives/349144

声明:本文由入驻搜狐公众平台的作者撰写,除搜狐官方账号外,观点仅代表作者本人,不代表搜狐立场。
推荐阅读