ZEGO Avatar SDK 提供了表情随动
功能,基于领先的人脸关键点精准识别,结合面部、舌头、眼球在内的 52 种基础面部表情维度,实时捕获用户脸部的表情动作,在虚拟形象上进行实时的还原渲染。
可广泛应用于社交互动、语聊直播等场景中。
适用语聊直播、社交互动、在线培训等场景,实现真人与虚拟人像的实时互动,增加产品可玩性和趣味性。
在实现“表情随动”功能之前,请确保:
开发者请参考以下步骤,实现 “表情随动” 功能。
ZegoCharacter
的任何相关接口。搭建出基本的虚拟人物形象后,调用 startDetectExpression
接口,设置驱动模式为 Camera
,通过前置摄像头,开始检测表情;然后可以直接通过 ZegoCharacterHelper 的 setExpression
接口设置表情,驱动当前虚拟人物的面部表情变化。
// 开始表情检测
ZegoAvatarService.getInteractEngine().startDetectExpression(ZegoExpressionDetectMode.Camera, expression -> {
// 前提是 mCharacterHelper 已经创建好,并且设置了 AvatarView 和设置了默认形象(使用 setDefaultAvatar 或 setAvatarJson 设置过。)。
// 驱动虚拟人物的脸部变化
mCharacterHelper.setExpression(expression);
});
将应用切换到后台运行、或退出当前页面时,需要调用 stopDetectExpression
接口,停止表情检测。
// 停止表情检测
ZegoAvatarService.getInteractEngine().stopDetectExpression();