侵权投诉
订阅
纠错
加入自媒体

Siri越来越像个“人”,能读懂情绪啦

苹果公司正在研发一种通过脸部分析能够读懂用户请求的技术,希望能通过分析情绪来减少语音被误解的次数。

苹果公司在专利申请号20190348037中表示:“智能软件代理程式可以代理用户执行操作,操作响应于用户输入的自然语言(例如用户说的一句话)。在某些情况下,智能软件代理程式采取的操作可能与用户预期的操作不匹配。”如抱怨的向Siri说,能不能别再播这种伤心的歌了,然后Siri就去切歌了,但其实你的心情还是很需要听这类型的歌的。

该技术可以分析视频输入中的面部图像,通过识别形状或动作来确定特定的肌肉或肌肉群是否被激活。

该系统部分功能会使用面部识别来识别用户,从而提供定制动作,例如打开电子邮件或打开个人音乐列表进行音乐播放。

同时该技术还旨在读懂用户的情绪。

专利中继续写道:“用户表达的信息会有多个指标,比如该表达是积极的还是消极的,同时还能判断用户的语气程度。”

这在能有多种解读的语音请求里,非常具有实用性。有了这项技术,Siri能计算出最可能的含义并对其进行操作,然后使用面部识别来查看用户是满意还是烦恼。

过程

接受视频输入→识别视频输入中代表用户面部表情的信息→判断用户反应→存储描述用户反应的用户反应信息→根据用户的反应信息采取相应的行动

声明: 本网站所刊载信息,不代表OFweek观点。刊用本站稿件,务经书面授权。未经授权禁止转载、摘编、复制、翻译及建立镜像,违者将依法追究法律责任。

发表评论

0条评论,0人参与

请输入评论内容...

请输入评论/评论长度6~500个字

您提交的评论过于频繁,请输入验证码继续

暂无评论

暂无评论

Advertisement
文章纠错
x
*文字标题:
*纠错内容:
联系邮箱:
*验 证 码:

粤公网安备 44030502002758号