AI 视频 | Stable Video Diffusion 来了!(附体验地址)
1. 介绍
11 月 21 日,Stability AI 推出了 Stable Video Diffusion,这是 Stability AI 的第一个基于图像模型 Stable Diffusion 的生成式视频基础模型。
目前 Stability AI 已经在 GitHub 上开源了 Stable Video Diffusion 的代码,在 Hugging Face 上也可以找到模型本地运行所需要的 weights。
「GitHub」
https://github.com/Stability-AI/generative-models
「Hugging Face」
https://huggingface.co/stabilityai/stable-video-diffusion-img2vid-xt
目前该视频模型可以很容易地适配下游各种任务,并计划基于此基础模型建立一系列模型,类似于围绕 stable diffusion 建立一个生态系统。
在外部评估中,Stable Video Diffusion 发布的两种图片生视频的模型 SVD 和 SVD-XT,在用户偏好研究中,已经超过了 Runway 和 Pika Labs。
2. 局限性
需要注意的是:
1、Stability AI 强调,此模型现阶段还不适用于实际或者商业应用。
2、网页的体验目前还未向所有人开放,可以在这里申请候补(https://stability.ai/contact)。
另外,stable-video-diffusion-img2vid-xt 还有一些局限性,在 Hugging Face 上也说明了,该模型仅用于研究目的。
局限性:
1、生成的视频相当短(<=4秒),并且该模型无法实现完美的照片级别的视频。
2、当前模型可能会生成没有运动的视频,或非常缓慢的相机平移的视频。
3、无法通过文本控制模型。
4、模型无法呈现清晰的文本。
5、面孔和人物可能无法正确生成。
6、模型的自编码部分是有损耗的。
3. 如何体验
Hugging Face 上的体验地址:https://huggingface.co/spaces/multimodalart/stable-video-diffusion
不过上传图片点生成后,提示「This application is too busy」。
后来看到国外一位开发者 mkshing 的分享:https://colab.research.google.com/github/mkshing/notebooks/blob/main/stable_video_diffusion_img2vid.ipynb
打开链接后,点击「代码执行程序」-「全部运行」就可以了,过程有点慢,感兴趣的小伙伴可以跑一下~
关于 Stable Video Diffusion 更多详细的介绍,可以查看论文:https://stability.ai/research/stable-video-diffusion-scaling-latent-video-diffusion-models-to-large-datasets
4. 参考网址
https://stability.ai/news/stable-video-diffusion-open-ai-video-model
————————————————
版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
原文链接:https://blog.csdn.net/u011886447/article/details/134589858
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 物流快递公司核心技术能力-地址解析分单基础技术分享
· .NET 10首个预览版发布:重大改进与新特性概览!
· 单线程的Redis速度为什么快?
· 展开说说关于C#中ORM框架的用法!
· Pantheons:用 TypeScript 打造主流大模型对话的一站式集成库
2019-06-26 MySQL中实现递归查询