【TechWeb】2月26日消息,据国外媒体报道,苹果正在研究如何改进Siri,以便更好满足口吃用户的需求。
报道称,苹果已建成一个由口吃用户提供的 2.8 万个音频片段组成的数据库。苹果发言人表示,这个数据库将用来训练Siri,提高语音识别系统理解语言障碍用户的能力。
此外,除了提高Siri理解语言障碍用户的能力,苹果还为Siri添加了Hold to Talk功能。即,用户可以自由控制Siri听语音的时间,这样就可以防止Siri打断口吃用户说话。
2017年,苹果曾在iOS 11中首次推出过Type to Siri功能——输入即可与Siri对话,而无需用语音。这曾对部分残障人士带来过巨大的便利。
报道称,苹果将在本周发布这一针对口吃用户的工作进度,将会透露更多细节。
据悉,谷歌和亚马逊也在训练谷歌助手和Alexa,以更好地理解包括那些具有语言障碍用户在内的声音。去年12月,亚马逊推出了Alexa 的新实时翻译功能,该功能允许使用两种不同语言的人进行交流,而Alexa则充当口译员并翻译双方的对话。
郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。