长期以来,神经科学界普遍认为人类面部表情由大脑不同区域分别控制:外侧皮质主导自主控制的"假笑"等社交表情,内侧皮质则负责情绪驱动的"真笑"等自然表情。
这一理论主要基于对中风患者的临床观察,但缺乏直接神经证据支撑。
研究团队创新性地采用功能性磁共振成像与多通道阵列记录技术,对猕猴的四个关键皮质区域进行同步监测。
实验设计涵盖社交互动、视频刺激等多种场景,精确记录动物在做出威胁表情、社交示好等行为时的神经元活动。
研究发现颠覆了传统认知:初级运动皮质、扣带回运动皮质等四个区域均参与各类表情控制,每个区域同时存在"通用神经元"和"专属神经元"。
更关键的是,不同皮质区域形成动态协同网络——外侧区域负责毫秒级的面部肌肉精准控制,内侧区域则在动作前就启动稳定编码,整合社交情境与情绪信号。
这种神经协同机制解释了"真笑"与"假笑"的本质差异:自然笑容需要情绪信号与肌肉运动的完美同步,而社交性假笑仅依靠意识调控的肌肉运动,缺乏内在情绪支撑。
研究还发现,大脑在表情产生前就已形成特定的神经活动轨迹,表明每个表情都是经过"神经预演"的主动行为。
该成果对临床医学具有重要价值。
传统基于分区理论的面瘫康复方案可能需要重新评估,未来或可通过调节神经协同模式来改善表情障碍。
在人工智能领域,这项发现为开发更自然的表情识别系统提供了生物学依据。
真笑与假笑的分野,或许并不只在嘴角的弧度,而在大脑如何把情绪、情境与动作编排成一套一致的“表达方案”。
这项研究将表情从“局部肌肉动作”提升为“多区域协同的社会性行为输出”,提醒人们:理解他人的表情,既要看见动作本身,也要看到其背后的心理与处境。
随着相关研究不断深入,人类对情绪表达与社会沟通的认识,有望从经验判断走向更可解释、可干预的科学框架。