文章来源:智汇AI 发布时间:2025-08-06
AtomoVideo是由阿里巴巴的研究团队提出的一个高保真图像到视频(I2V)生成框架,旨在从输入的静态图像生成高质量的视频内容。该框架能够保持生成视频与给定参
暂无访问AtomoVideo是由阿里巴巴的研究团队提出的一个高保真图像到视频(Image-to-Video, I2V)生成框架,旨在从输入的静态图像生成高质量的视频内容。该框架基于多粒度图像注入和高质量的数据集及训练策略,使其能够保持生成视频与给定参考图像之间的高保真度,同时实现丰富的运动强度和良好的时间一致性。
相较于Runway Gen-2和Pika 1.0,AtomoVideo在保持图像细节、生成动态视频以及提供个性化和可控生成方面表现出了一定的优势。

视频帧预测:为了实现长视频的生成,AtomoVideo采用迭代预测的方法。给定一系列初始视频帧,模型会预测接下来的帧。这种方法允许在有限的GPU内存约束下生成长视频序列。训练和推理:在训练阶段,AtomoVideo使用内部的15M数据集,其中每个视频大约10-30秒长,并且视频的文本描述也被输入到模型中。训练过程中采用了零终端信噪比(SNR)和v-prediction策略,以提高视频生成的稳定性。模型的输入尺寸为512×512,包含24帧。在推理阶段,模型执行分类器自由引导(Classifier-Free Guidance),结合图像和文本条件注入,以提高生成输出的稳定性。个性化视频生成:AtomoVideo在训练时固定了基础2D UNet的参数,只训练添加的参数,因此可以与社区中流行的个性化模型结合。例如,可以与epiCRealism这样的T2I模型结合,该模型擅长生成光和影效果,用于I2V生成时倾向于生成包含光元素的视频。