站长之家 - 见闻 2019-07-31 10:37

这个人工智能模型可以从自拍照中检测出11种情绪

站长之家(ChinaZ.com) 7月31日 消息:机器学习模型可以检测我们的面部和动作,并应用到智能手机面部解锁和Amoniji等功能中。然而,很多人工智能模型并不能通过脸部动作预测用户的感受,这也正是EmoNet和其它AI的不同之处。

tnw介绍,科罗拉多大学和杜克大学的研究人员开发了一种神经网络EmoNet,可以将图像准确地分为 11 个情感类别。为了训练这个模型,研究人员使用了 2187 个视频,将这些视频被划分为 27 个不同的情感类别,包括焦虑、惊讶和悲伤。

训练结束后,研究人员还使用了25, 000 张图片来验证EmoNet识别情绪的准确度。研究人员得出结论,EmoNet可以准确预测渴望、性欲或恐惧等情绪。然而,它无法非常精确地预测困惑、敬畏或惊讶的表情。因为有些表情如快乐、崇拜等有相似的面部特征,会让该人工智能模型感到困惑。

为了进一步改进模型,研究人员还召集了 18 个人,测量了他们的大脑活动,同时向他们展示了 112 幅不同的表情图片。测试者再向EmoNet展示了相同类型情绪的照片,进而进行对比得出结果。

推荐关键词

24小时热搜

查看更多内容

大家正在看