书城心理网络成瘾的心理学研究:认知和情绪加工
11035000000015

第15章 面部表情的研究

一、面部表情的跨文化性

(一)普遍性

达尔文(Darwin,1872)最早研究了人类的面部表情,他在《人类和动物的情绪表情》一书中指出,不同的面部表情是天生的、固有的,并且能为全人类所理解。面部表情是进化的产物,人类基本情绪具有先天性和全人类普遍性的特点。他指出,喜、怒、哀、乐是人类最基本的面部表情。

当代的许多研究支持这一观点,即人类的表情不具有文化差异性。Ekman等人(1987)对来自十个不同国家和地区(如纽约、新几内亚、阿根廷、婆罗洲、巴西和日本等)的被试呈现了30张不同情绪面孔的照片(如愉快、恐惧、发怒、悲伤、惊奇和厌恶等),要求他们识别每张图片的情绪。结果表明,被试在识别这些情绪的照片时出现了高度的一致性。

由于部分研究者坚持认为,表情一定是后天学习的产物,会依文化的不同而不同。保罗·艾克曼为了在这两种结论之间找到平衡点,提出了表露规则的概念。所谓表露规则是指人们在社会生活中学到的、依不同文化而不同的控制表情的规则,也就是某人能够向谁表现何种情绪,以及在何时表现。这些规则意味着我们有时会弱化、夸大、彻底隐藏或者掩饰表情中流露出的情绪。而一些符号性的姿势(如点头、摇头)所代表的含义,以及用手势表示“OK”等,则确实是因文化的不同而不同,在这一点上不存在争议。

(二)组内优势效应

虽然面部表情被证明具有跨文化的一致性,但也有很多研究成果表明,人类在面孔识别上存在种族偏向性,即人们能够更好地识别本国家或者本种族人群的面部表情。这就是所谓的面部情绪识别中的组内优势效应(group advantage effect),指当情绪由自己文化群体中的成员表达时,就更容易被识别。Izard在1971年就发现,美国人识别美国人面部表情的照片时,正确率为83%;欧洲人识别美国人面部表情的照片时,正确率为75%~83%;日本人识别美国人面部表情的照片时,正确率为65%;非洲人识别美国人面部表情的照片时,正确率为50%。这表明,对同一文化团体成员面部表情的识别正确率最高,文化越相近,识别的正确率就越高。

二、面部表情的类别

Ekman通过研究确定了七种人类共通的、有着不同面部表情的情绪,即悲伤(sadness)、愤怒(anger)、惊讶(surprise)、恐惧(fear)、厌恶(disgust)、蔑视(disparage)和愉悦(happiness)。他特别说明了“蔑视”的含义,是一种胜人一筹的感觉,一种优越感,通常是道德上的,也有可能是面对智力、体力等比自己差的人时产生的感觉。Izard在Ekman提出的基本情绪的基础上又补充了感兴趣(interest)和害羞(shame)两种情绪。Ekman(1975)用实验证明,人脸的不同部位具有不同的表情作用。例如,眼睛对表达忧伤情绪最重要,口部对表达快乐与厌恶情绪最重要,而前额能提供惊奇的信号,眼睛、嘴和前额等对表达愤怒情绪很重要。

在面部情绪的科学研究上,目前通常使用二分法,即把愤怒、厌恶、悲伤和蔑视归为一类,即消极情绪,与积极情绪相对。艾克曼认为,这种简单的二分法存在两个问题。第一,它忽视了所谓的消极情绪之间存在的巨大差别;第二,这些所谓的消极情绪有时也会使人愉悦。他举例说,有人觉得愤怒的争吵是一种享受。快乐的情绪也有许多不同的种类,开玩笑带来的快感与如释重负带来的快感就有天壤之别,就像他们和恐惧、愤怒有很大的差别一样。正因为情绪的这些复杂的特点,简单地分类势必带来许多问题。因此艾克曼认为,只有对情绪的每一个细节都认真研究之后,才能确定对当事人来说,这种情绪是愉快的还是痛苦的。

1978年Izard等人提出了“最大限度辨别面部肌肉运动编码系统”(Max),该系统将面部分为三个部位:额—眉—鼻根区;眼—鼻夹区;口唇—下巴。各部位肌肉运动的多种组合就形成了面部表情系统。Ekman等人编制了面部活动编码系统(FACS)以及升级版本EM-FACS,对具体的面部肌肉群,又称“活动单元”,并对它们的有形活动和结构形状进行了编码。面部表情类别的研究,为面部表情识别提供了可凭借的科学基础,也为后续研究提供了依据。

三、面部表情识别的研究

(一)面孔识别认知模型

在人类发展演化的过程中,面部表情识别起着重要的作用,识别他人的情绪对于种族的生存而言也有着重要的意义。面部表情识别的研究通常是呈现一些面孔图片刺激,让被试判断属于什么类型的情绪以及情绪的强度等。识别情绪只是面孔识别中的一个方面或者说一个成分,面部识别本身还包含了多种其他过程,本身已形成一个比较完整的研究体系,并具有多种理论模型。在这里简单介绍一种著名的认知模型,即Bruce和Young(1986)提出的面孔识别功能模型(functional model for face recognition)。

面孔识别功能模型是面孔识别理论中的经典模型,为后续此类的研究提供了一个最为广泛接受和应用的框架。该模型从信息加工的角度区分出七类面部识别的信息编码,即图形码、结构码、身份码、视觉语义码(年龄与性别)、姓名码、表情码和面部言语码(唇读或注视方向等)。面部识别过程包含两个阶段:第一阶段,进行面孔结构的知觉结构编码,在此阶段产生整个面孔轮廓的表征。第二阶段,包含两条平行通道,一条通道是有关视觉处理的,包含表情分析、面孔言语分析和直接视觉加工三个平行的处理单元,进行面孔性别和表情的加工;另一条通道是有关面孔识别的,包含面孔识别单元、个体特征单元和名字产生单元三个串行的处理过程,完成面孔轮廓表征与存储在面孔再认单元里的面孔表征进行比较,并获得有关面孔的语意记忆。这两条分离通道的输出结果最后都进入认知系统,完成整个面孔识别。

(二)面部表情识别的发展性研究

研究表明,婴儿很早就可以熟练地从非面孔刺激中识别面孔和识别不同的情绪表情。5~6个月的婴儿能够辨别恐惧、愤怒和悲伤的面部表情,并且愤怒的面部表情特别能引起婴儿的注意。当母亲和10周的婴儿进行愉快和不愉快的交流时,婴儿会出现愉快、感兴趣、悲伤和发怒的表情。

表情识别的社会性特点和交流性功能在很早的时期就得到了体现,Tronick E。分析了三个月大的婴儿与母亲面对面的交流模式,发现母婴之间建立了一种复杂的表情交流体系,即彼此都以恰当的方式与对方进行交流和作出反应。在另一项研究中,试验人员让母亲保持僵直的面部表情,以探查婴儿对母亲这种面部表情的反应。结果发现,婴儿开始会试图以变化的面部表情、发出声音、身体的运动等行为来刺激母亲,使母亲重新作出反应,但如果母亲不为婴儿的行为表现所动,婴儿发现自己的努力不见效时,他们就会表现出伤感、茫然、皱眉和哭叫等行为。

彭聃龄曾以大、中、小学生为被试来研究辨别照片表情能力的发展,辨别的情绪包括欢乐、悲恸、愤怒、惊诧、喜爱、害怕、忧郁、苦笑、尴尬和谄媚。结果表明,中学生和大学生之间表情辨认能力的差异很小,这说明中学生的表情判断能力已经接近成人的水平。而中学生的成绩明显高于小学生的成绩,表明从小学到中学阶段,表情辨别能力有一个快速的发展时期。

(三)面部表情加工的脑成像研究

大脑对面部表情加工的神经成像研究表明,除了惊讶以外,喜悦、恐惧、悲伤、愤怒和厌恶等其他五种表情都有了各不相同的脑激活模式。杏仁体在加工情绪中特别重要,也能被其他情绪(如快乐和悲伤)激活,但存在一个快速的适应效应。研究者们推测,杏仁体一般性地响应面孔以评估可能的刺激的威胁程度。许多研究结果表明,面部表情加工被高度专门化的环路或者神经基础所支配。神经成像研究亦表明,颞上回对表情加工敏感,而颞下回则对面孔识别敏感,这提示面孔识别与表情加工是分离的。

Orozco等人使用ERP技术研究发现,与高兴的面孔相比,悲伤的面孔识别能引起更大的晚期正成分LPC(late positive component)。Schapkin等人研究发现,含有不同情绪成分的刺激所引发的ERP成分,其波幅、分布区域及潜伏期均有不同。正性、负性、非情绪词汇引起的视觉ERP结果表明,正性词汇较负性词汇引发的P2波幅增大,正性词汇较非情绪词汇引发的P3波幅增大,因而认为成分的正走向(positive going)能够反映情绪词汇的处理过程。

Mtinte等人(1998)记录了多个头皮部位的ERP以评估身份和表情加工作用的时间和分布。在身份匹配任务中,最早的ERP差异见于200ms左右。在表情匹配任务中,最早的ERP变化出现较晚,约450ms。两种任务的定位或头皮分布也不同:身份匹配与额中央区域相关,而表情匹配与中央顶区相关。