文档

快速开始

更新时间:
一键部署

悦动人像EMO可基于人物肖像图片和人声音频文件,生成人物肖像动态视频。其中,包含2个独立的模型“悦动人像EMO-detect”和“悦动人像EMO”,分别提供人物图片合规检测与人物视频生成能力。

模型部署与调用

以独占实例部署模型时,需要分别部署“悦动人像EMO-detect”模型和“悦动人像EMO”模型。

模型部署成功后,可查看到部署成功的模型名称(如下图所示)。

image

调用时,需按模型名称调用对应模型,并请参照以下调用顺序:

(1)调用“悦动人像EMO-detect”模型确认输入的人物图像符合规范(可参考文档:EMO 图像检测 API详情);

(2)调用“悦动人像EMO”模型输入通过检测且经适当裁剪的人物图像,以及包含清晰人声的音频文件,以生成人物肖像动态视频(可参考文档:EMO 视频生成 API详情)。

由于图像检测的调用耗时较短,而视频生成算法的调用耗时较长。使用时,可结合实际需要调整图像检测模型与视频生成模型的部署比例。通常,当图像以有序的队列输入时,1路图像检测并发应可支撑40路以上的视频生成并发任务。

前提条件

示例代码

详见EMO API详情文档。

  • 本页导读 (1)