记一次运行magic-animate

November 24, 2023 / Hoshina / 61阅读 / 0评论 / 分类:

由字节跳动开源的一种基于diffusion-based的人体图像动画框架,旨在增强时间一致性、忠实地保留参考图像并提高动画保真度。

项目链接

环境选择:

使用AutoDL

镜像选择PyTorch==1.11.0,Python==3.8(ubuntu20.04),Cuda==11.3

数据盘选择扩容200g

安装运行

使用SSH连接到AutoDL,进入系统后使用cd命令进入数据盘(系统盘不足以安装全部库)

 cd /root/autodl-tmp   

然后使用git克隆magic-animate仓库

 git clone https://github.com/magic-research/magic-animate.git   

克隆完成后进入仓库目录 cd magic-animate ,安装requirements.txt

 pip3 install -r requirements.txt   

安装完成后在仓库目录下新建*pretrained_models*目录

 mkdir pretrained_models   

拉取 MagicAnimate sd-vae-ft-mse stable-diffusion-v1-5

git lfs clone https://huggingface.co/zcxu-eric/MagicAnimate
git lfs https://huggingface.co/stabilityai/sd-vae-ft-mse

对于stable-diffusion-v1-5由于库过于庞大直接克隆可能会因为各种各样的原因拉取失败(浪费了一天时间😭),所以采用先克隆仓库然后再进行pull

git clone  https://huggingface.co/runwayml/stable-diffusion-v1-5
cd stable-diffusion-v1-5
git lfs pull

克隆完成后返回magic-animate仓库目录,运行Gradio

 python3 -m demo.gradio_animate 

使用

我使用的是VSCode进行的ssh连接,直接在VSCode中打开内置浏览器即可查看到WebUI页面

在WebUI页面中下滑选择演示Demo中的任意一个,将Demo自带的图片删除,上传自己需要动起来的图片

点击Animate等待视频生成

#Python(1)#人工智能(1)

文章作者:Hoshina

文章链接:https://halo.evaz.org//archives/ji-yi-ci-yun-xing-magic-animate

版权声明:本博客所有文章除特别声明外,均采用CC BY-NC-SA 4.0 许可协议,转载请注明出处!