摘要 - 动画机器人有望通过栩栩如生的面部表达来实现自然的人类机器人互动。然而,由于面部生物力学的复杂性和对响应式运动的综合需求,产生逼真的语音同步机器人表达式构成了重大挑战。本文介绍了一种新颖的,以皮肤为中心的方法,以从语音输入中驱动动画机器人面部表情。在其核心上,提出的方法采用线性混合皮肤(LB)作为统一表示,并在实施例设计和运动合成中指导创新。lbs通知致动拓扑,促进人类表达重新定位,并实现有效的语音驱动面部运动产生。这种方法证明了在单个NVIDIA RTX 4090上实时在4000 fps上实时在动画面上产生高度现实的面部表情的能力,从而显着提高了机器人在自然相互作用上复制细微的人类表达式的能力。为了促进该领域的进一步研究和开发,该代码已在以下网址公开提供:https://github.com/library87/openroboexp。