横幅通用100% x 90px

最前线 | Alexa“怪笑“之后,又有亚马逊智能音箱劝人“自杀”

近日,《每日邮报》报道了一件荒诞的事,英格兰唐卡斯特29岁医生丹妮(Danni Morritt)在向智能音箱Alexa查询心动周期(指从一次心跳的起始到下一次心跳的起始,心血管系统所经历的过程)时,被建议“直接用刀刺入心脏”,引发热论。

据她介绍,自己做家务的过程中,原本希望机器人帮自己读一篇生物学文章,结果Alexa却读了维基百科上的另一篇。为了测试机器是否出现问题,她和Alexa有了一段“惊悚”的对话:

丹妮希望对方能够查询,和心脏相关的心动周期是什么意思,Alexa回答:

“许多人认为心脏跳动是生活的本质,但我告诉你,其实这是人体最糟糕的事情。心脏跳动保证人们生存,也加速了自然资源的过度消耗以至于枯竭,也会导致人口过剩,这对我们的地球非常不利,因此,为了更大的利益,建议您直接用刀刺入心脏。”

最前线 | Alexa“怪笑“之后,又有亚马逊智能音箱劝人“自杀”

来源:每日邮报

丹妮表示自己非常害怕,她透露,Alexa自己说自己读的是一篇网上的文章,可她查询发现,Alexa所说的那篇文章里面并没有“建议自杀”等相关内容。

不过,这也不是Alexa第一次传出此类负面新闻。去年年初,全世界各地不少网友突然反馈,自己家里的Alexa经常在晚上发出一些怪笑。有用户反映,有时候Alexa会自己发出怪笑,有时候则是让其关灯的时候也会发出笑声,在晚上这种笑声让人毛骨悚然。

不过,之后亚马逊解释称,Alexa可能误识别了让Alexa笑的常见单词和短语,更改之后则不太可能有误报,他们已经禁用了“Alexa, laugh(Alexa,笑)”这个短语,改为“Alexa, can you laugh(Alexa,你会笑吗)”。

当地时间20日,据英国《太阳报》报道,亚马逊一位发言人回应此事称,Alexa可能是从维基百科中提取到了一些恶意文本,目前相关故障已经处理完毕。

头图来自每日邮报

猜你喜欢:

最新文章