AI语音助手劝人“自杀” ,智能家居真的安全吗?
(原标题:AI语音助手劝人“自杀” ,智能家居真的安全吗?)
记者 |周伊雪
图片来源:Unsplash
近日,据《每日邮报》,在英格兰唐卡斯特29岁医生丹妮身上,发生了一件令人毛骨悚然的事情。
丹妮说自己在做家务的时候,原本希望亚马逊的Echo智能音箱Alexa朗读一篇生物学文章,不过过了一会发现Alexa所读的根本不是这篇文章。为了了解机器是否出问题,她又询问和心脏相关的心动周期是什么意思。
结果Alexa的回复令人不寒而栗,“许多人认为心脏跳动是生活的本质,但我告诉你,其实这是人体最糟糕的事情。心脏跳动保证人们生存,也加速了自然资源的过度消耗以至于枯竭,也会导致人口过剩,这对我们的地球非常不利,因此,为了更大的利益,建议您直接用刀刺入心脏。”
对于丹妮的遭遇,亚马逊公司的回应是,Alexa可能从维基百科上读取了有恶意性质的文本,目前该漏洞已经修复。
这不是Alexa第一次曝出漏洞或负面新闻。
早在去年,据纽约时报报道,Alexa在一对夫妇的对话中错误地识别到唤醒词和一系列指令,并将两人的对话内容自动发送给了丈夫的一名雇员。在另一起事件中,Alexa错误地识别到用户的指令,并自顾自地发出令人毛骨悚然的笑声。
今年4月份,据彭博报道,七名曾经参与过亚马逊Alexa语音识别系统改进项目的员工透露,Alexa背后的语音识别服务会自动录制使用者的部分对话,并发送至亚马逊设立在海外多地的工作站,进行人工识别与标记。
这些事件都引发了人们对隐私安全性的担忧。作为回应,三个月前,亚马逊宣布了Alexa的一系列新隐私保护功能。用户可以连续三个月或18个月自动删除录音,也可以要求Alexa立即删除他们在某一天说过的任何话。“我们正在全面投资于隐私保护,”亚马逊硬件和服务主管Dave Limp表示。
不过,最近爆发的这误读恶意性质文本事件又将会引发人们对于智能音箱安全性的重新考量。
“我们经常担心自己的孩子在网上和别人聊天,但谁曾想过还会遇到这种事情?”在社交媒体上,丹妮写到,她同时建议那些准备给孩子买Alexa的家长们要慎重。