由字节跳动开源的一种基于diffusion-based的人体图像动画框架,旨在增强时间一致性、忠实地保留参考图像并提高动画保真度。
[项目链接](https://github.com/magic-research/magic-animate)
环境选择:
使用AutoDL
镜像选择PyTorch==1.11.0,Python==3.8(ubuntu20.04),Cuda==11.3
数据盘选择扩容200g
安装运行
使用SSH连接到AutoDL,进入系统后使用cd命令进入数据盘(系统盘不足以安装全部库)
cd /root/autodl-tmp
然后使用git克隆magic-animate仓库
git clone https://github.com/magic-research/magic-animate.git
克隆完成后进入仓库目录 cd magic-animate
,安装requirements.txt
pip3 install -r requirements.txt
安装完成后在仓库目录下新建*pretrained_models*目录
mkdir pretrained_models
拉取 MagicAnimate sd-vae-ft-mse stable-diffusion-v1-5
git lfs clone https://huggingface.co/zcxu-eric/MagicAnimate
git lfs https://huggingface.co/stabilityai/sd-vae-ft-mse
对于stable-diffusion-v1-5由于库过于庞大直接克隆可能会因为各种各样的原因拉取失败(浪费了一天时间😭),所以采用先克隆仓库然后再进行pull
git clone https://huggingface.co/runwayml/stable-diffusion-v1-5
cd stable-diffusion-v1-5
git lfs pull
克隆完成后返回magic-animate仓库目录,运行Gradio
python3 -m demo.gradio_animate
使用
我使用的是VsCode进行的ssh连接,直接在VsCode中打开内置浏览器即可查看到WebUI页面
在WebUI页面中下滑选择演示Demo中的任意一个,将Demo自带的图片删除,上传自己需要动起来的图片
点击Animate等待视频生成