研究:人工智能无法识别人类情绪

一个国际科学家团队已经发现了人工智能确定人类情绪的能力。 他们分析了演员的照片,看面部表情是否忠实地反映了感情。

原来,人们使用不同的面部动作来传达相同的情绪。 例如,一个人生气时可能会皱眉,而另一个人可能会睁大眼睛甚至笑。

研究还发现,人们使用相同的手势来传达不同的情绪,比如用皱眉来表达专注和愤怒。

在实验过程中,科学家们拍摄了处于特定情绪状态的专业演员。 每个情景都在两个独立的研究中进行了分析。

首先,839 名志愿者评估了对情境的描述引起 13 种情绪之一的程度。 然后研究人员计算每个场景的平均评分,对它们进行分类,并使用机器学习模型来分析照片中演员的面部表情。

研究:人工智能无法识别人类情绪13种情感类别。 数据:研究。

原来,演员使用不同的面部表情来描绘相同的状态。 分析还表明,相似的姿势不能可靠地表达相同的情感类别。

然后,研究人员要求更多的志愿者组分别对每个面部表情进行评分。

他们发现,当结合情景考虑时,他们自己对面部表情的判断与对情绪的判断并不显着一致。

研究合著者丽莎·费尔德曼·巴雷特 (Lisa Feldman Barrett) 表示,这些结果使人们对情绪人工智能的常见说法产生了怀疑。

“例如,一些公司声称他们拥有可以检测愤怒的算法,但实际上他们拥有 – 在最佳情况下 – 的算法可能会检测到可能是也可能不是愤怒表达的皱眉。” – 她说.

巴雷特补充说,重要的是不要将面部构造的描述与对他的情绪状态的推断混淆。

回想一下,在 7 月,俄罗斯科学家教人工智能识别文本中的情绪。

今年 5 月,众所周知,中国已经在维吾尔人身上测试了人工智能来检测情绪。

今年 4 月,科学家们推出了一款游戏,展示 AI 识别情绪的风险。

在 Telegram 上订阅 ForkLog 新闻:ForkLog AI – 来自 AI 世界的所有新闻

发现文中有错误? 选择它并按 CTRL + ENTER

内容搜集自网络,整理者:BTCover,如若侵权请联系站长,会尽快删除。

(0)
BTCover的头像BTCover
上一篇 29 8 月, 2021 7:58 上午
下一篇 29 8 月, 2021 7:57 上午

相关推荐