1. 首页
  2. 新知

智能助手亚马逊语音助手Alexa竟然劝人自杀 官方回应这是BUG

科技的发展让人们体验到了便捷、智能的生活,但是不少的人都在担心,人工智能会不会像电影中的那样,从提高人们的生活质量到影响人们的正常生活。之前就有亚马逊Alexa智能语音助手“监听门”的事件,如今又有人工智能助手劝主人自杀的事情,让不少的人害怕。

智能助手亚马逊语音助手Alexa竟然劝人自杀 官方回应这是BUG

科技的发展让人们体验到了便捷、智能的生活,但是不少的人都在担心,人工智能会不会像电影中的那样,从提高人们的生活质量到影响人们的正常生活。之前就有亚马逊Alexa智能语音助手“监听门”的事件,如今又有人工智能助手劝主人自杀的事情,让不少的人害怕。

近日,一位使用亚马逊语音助手Alexa的用户,在询问心动周期的问题时,竟然得到了如下答案:“心跳是人体最糟糕的过程。人活着就是在加速自然资源的枯竭,人口会过剩的,这对地球是件坏事,所以心跳不好,为了更好,请确保刀能够捅进你的心脏。”

据了解,Alexa的回答是根据维基百科上的内容进行的,Alexa可能从任何人都有权编辑的维基百科上获取了不良信息。维基百科的免责声明中指出,任何文章的内容都可能被他人修改、破坏或篡改,而这些人为观点与相关领域的知识状况不符,维基百科不保证其有效性。

针对此事,亚马逊回应称,这是个Bug,而且已经进行了修复。AI能够为用户更好的服务固然是好的,但是对于安全和隐私方面的不确定性,有待提高。

图集

  • 智能助手亚马逊语音助手Alexa竟然劝人自杀 官方回应这是BUG
  • 智能助手亚马逊语音助手Alexa竟然劝人自杀 官方回应这是BUG
  • 智能助手亚马逊语音助手Alexa竟然劝人自杀 官方回应这是BUG
  • 智能助手亚马逊语音助手Alexa竟然劝人自杀 官方回应这是BUG
  • 智能助手亚马逊语音助手Alexa竟然劝人自杀 官方回应这是BUG
  • 智能助手亚马逊语音助手Alexa竟然劝人自杀 官方回应这是BUG

本文来源网络,其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。