过去几年来,分散模型弱小的图像分解才干曾经获取充沛证实。钻研社区如今正在攻克一个更艰巨的义务:视频生成。近日,OpenAI 安保系统(Safety Systems)担任人 Lilian Weng 写了一篇关于视频生成的分散模型的博客。
机器之心对这篇博客启动了不扭转原意的编译、整顿,以下是博客原文:
视频生成义务自身是图像分解的超集,由于图像就是单帧视频。视频分解的难度要大得多,要素是:
1. 视频分解还须要不同帧之间坚持时期分歧性,很人造,这须要将更多环球常识编码到模型之中。
2. 相比于文本或图像,搜集少量高品质、高维度的视频数据要更为艰巨,更罔论配对的文本 - 视频数据了。
假设你想了解分散模型在图像生成方面的运行,可参读本文作者 Lilian Weng 之前颁布的博文《What are Diffusion Models?》链接:
从头建模视频生成
首先,咱们先来看看如何从头设计和训练分散视频模型,也就是说不经常使用曾经预训练好的图像生成器。
参数化和采样
这里经常使用的变量定义与之前那篇文章稍有不同,但数学方式是分歧的。令
© 版权声明