从语音预测每一帧的 52 个 blendshape 值,输入语音,返回以 json 格式存储的 blendshape。我们为了先看模型训练的效果也为了简化训练的过程,目前仅预测了jawopen
的值。
POST
conda create -n flask python=3.9
conda activate flask
pip install -r requirements.txt
下载transformer_model ,并放在 utils/
目录下。
启动服务端
python app.py
先在 config.json
修改服务端返回的公网地址,如下图中的 http://172.31.70.115:8888
。务必在 config.json
中配置正确的语音文件路径,目前支持格式:wav
。
然后启动客户端请求
python launch.py -c ./config.json
结果会以json格式写在 res.json
文件中。