元宇宙网

您现在的位置是:首页 > 元宇宙项目 > 腾讯数字人

腾讯数字人

元宇宙直通车:手把手教你造个虚拟数字人

2022-02-28腾讯数字人
元宇宙直通车:手把手教你造个虚拟数字人
元宇宙时代已经来临,当你看到网络新闻上形形色色的虚拟人的时候,是不是有些心动?你是否认为创造虚拟人需要很大的学习成本和技术投入,普通开发者单枪匹马根本无法办得到?现在这些都不再是问题,飞桨预训练模型应用工具PaddleHub助你快速实现!

这个虚拟数字人给大家的新年祝福大家应该看过了,今天给大家做一个技术详细揭秘。

背后支持虚拟数字人的“神秘力量”,其实是飞桨强大的开源生态和AI能力。

飞桨语音模型库PaddleSpeech将文字转换成语音,让虚拟数字人有了自己的声音。飞桨生成对抗网络开发套件PaddleGAN的人脸生成能力赋予了虚拟数字人一张可爱的脸蛋,表情迁移、唇形合成(同步)等模型驱动虚拟数字人的脸部活动,让虚拟人更加栩栩如生。

目前PaddleHub已经把以上模型纳入了模型库当中,现在只需要通过简单的十几行代码调用模型,输入图片和文字,即可生成一个生动形象的虚拟数字人。

技术原理



生成虚拟数字人总共需要调用三个模型,分别是First Order Motion(表情迁移)、Text to Speech(文本转语音)和Wav2Lip(唇形合成)。

实现步骤

1.把图像放入First Order Motion模型实现面部表情迁移,让虚拟主播的表情更加逼近真人。

依赖安装



图像准备

首先需要准备一张带背景和人脸的二维静态图像,如图所示。



表情迁移

通过FOM模型,输入图像和驱动视频,让人像动起来。



2.输入你想让数字人说的话,通过Text to Speech模型,将输入的文字转换成音频输出。



3.得到面部表情迁移的视频和音频之后,将音频文件和动态视频输入到Wav2Lip模型,并根据音频内容调整唇形,让唇形根据说话的内容动态改变,使得虚拟人更加接近真人效果。



经过上面的三个步骤,一个虚拟数字人的视频就生成了。

文章评论