识别面部情绪的能力对于成功的社会互动至关重要。评估此能力时使用的最常见刺激是照片。尽管这些stimi被证明是有效的,但它们并未提供虚拟人类所取得的现实主义水平。本文的目的是验证一组新的动态虚拟面(DVF),它们模仿了六种基本情绪以及中性表达。脸部准备以低和高的动力观察,并从前视图中观察到。为此,招募了204名由性别,年龄和教育水平分层的健康参与者,以评估其面部影响识别的DVF集。将响应的精度与已经验证的Penn情绪识别测试(ER-40)进行了比较。结果表明,DVF与标准化的自然面一样有效,以重现人类样的面部表情。DVF(88.25%)鉴定情绪的总体准确性高于ER-40面(82.60%)。每种DVF情感的热门单曲都很高,尤其是对于中性的表达和幸福的情感。在性别方面没有发现统计学上的显着差异。60年来,年轻人和成年人之间也没有发现显着差异。更重要的是,与其剖面呈现相比,AVATAR面孔的命中率增加显示出更大的动态性以及DVF的前视图。dvfs与标准的自然面一样有效,可以准确地重现人类的情感表情。
主要关键词