创新免费AI视频创作工具Show-1,仅占普通模型25%GPU内存(创新视频素材)
10月7日 消息:新加坡国立大学的研究团队最近成功研发了一款名为Show-1的AI系统,该系统可以将文本描述转化为高质量视频。这一突破性的技术在AI领域引起了广泛的关注,被誉为最佳的免费AI视频创作工具之一。
Show-1的研发团队采用了一种混合架构,将像素和潜变模型相结合,以充分发挥两种方法的优势。像素模型直接处理像素值,因此能够更好地与文本提示对齐,但需要大量计算资源。潜变模型则将输入压缩到潜变空间,然后进行扩散。虽然更加高效,但在保留精细文本细节方面存在困难。
Show-1模型将这两种模型架构相结合:像素模型用于生成关键帧和低分辨率插值图像,捕捉与文本提示接近的所有运动和内容。然后,潜变模型用于将低分辨率视频放大到高分辨率。潜变模型充当“专家”,以添加逼真的细节。这种混合方法将像素模型的精确文本到视频对齐与潜变模型的高效放大相结合,取得了最佳效果。
根据研究团队的介绍,Show-1在逼真度和文本到视频对齐方面取得了与Imagen Video或Runways Gen-2等最先进方法相同或更好的结果,同时仅需使用纯像素模型生成视频所需GPU内存的20-25%。这一特点也使得Show-1对开源应用具有吸引力。
Show-1具有以下产品特色功能:
像素级和潜在级结合:Show-1独创性地将像素级和潜在级VDMs相结合,充分发挥了两者的优点,以实现文本到视频的生成。这一特色使其在保持高效性的同时能够实现精确的文本与视频对齐。
高质量视频生成:通过首先使用像素级VDMs生成具有强文本-视频关联性的低分辨率视频,然后使用潜在级VDMs进行进一步上采样,Show-1能够生成高质量的视频,确保了视频的视觉质量。
高效性:与像素级VDMs相比,Show-1在推理期间的GPU内存使用效率更高,显著减少了计算资源的需求,从而提高了效率。
文本视频对齐:Show-1注重确保生成视频与文本提示之间的精确对齐,这意味着生成的视频能够更好地反映文本描述的内容,提高了生成视频与文本一致性。
开源代码和模型权重:作者公开提供了Show-1的代码和模型权重,这意味着研究社区和开发人员可以自由地使用和构建在此模型的基础上进行进一步研究和开发。
总之,Show-1是一种先进的文本到视频生成模型,通过融合不同级别的VDMs,它能够高效地生成高质量、精确对齐的视频,并且具有开放的代码和模型权重,可用于各种应用,如视频生成、自动生成影片等。
Show-1项目网址:https://showlab.github.io/Show-1/