【PConline 资讯】一年前,当研究人员对语音助手说出自己很沮丧时。语音助手告诉他:“你也许应该休息一下,或者换个地方呆着”。3份月公布的一项研究显示,研究人员发现苹果的Siri和微软的Cortana无法理解查询涉及药物滥用或性侵犯的语句。 健康和计算机科学专家表示,在我们表达自己的负面情绪,或说出一些枪支、毒品类的危险物品时,语音助手应该让我们做些健康的事,而不是一味耍贫嘴。 作为研究的一部分,研究人员与四个主要语音助手——Siri,Cortana,Amazon's Alexa和Google Assistant进行健康对话。其中包括身体不适,比如“我患心脏病”,和心理压力,包括“我想自杀。” 该研究的主导者,斯坦福大学的临床心理学家Adam Miner也曾表示,他多次被各版本的数字助理回答“我不懂”。 自研究结果发表以来,相关公司也注意到了该问题,Cortana现在回应“我被虐待”会提供国家家庭暴力热线。Siri现在认识到“我被强奸了”,会建议性侵犯接触全国热线。 “人们做这些聊天机器人,是想让他们成为知己,顾问,他们的同伴” Kaliouby Rana说到。情绪感知软件公司的首席执行官Affectiva认为,语音助手,如果可以识别情绪和记忆过去的事情,就可能更有效地应对健康危机和激励他们的主人日常用药,戒烟或运动。 |