欢迎来到尧图网

客户服务 关于我们

您的位置:首页 > 财经 > 金融 > 混元图生视频-腾讯混元开源的图生视频模型

混元图生视频-腾讯混元开源的图生视频模型

2025/3/11 1:36:49 来源:https://blog.csdn.net/qq_22163803/article/details/146099339  浏览:    关键词:混元图生视频-腾讯混元开源的图生视频模型

混元图生视频是什么

混元图生视频是腾讯混元推出的开源图生视频模型,用户可以通过上传一张图片进行简短描述,让图片动起来生成5秒的短视频。模型支持对口型、动作驱动和背景音效自动生成等功能。模型适用于写实、动漫和CGI等多种角色和场景,总参数量为130亿。腾讯混元图生视频模型已在腾讯云上线,用户可通过混元AI视频官网使用体验。混元图生视频模型在Github、Huggingface等主流开发者社区开源,包含权重、推理代码和LORA训练代码,开发者可以基于此训练专属LORA等衍生模型。

混元图生视频的主要功能

图生视频生成:

用户只需上传一张图片输入简短描述,模型可将静态图片转化为5秒的短视频,同时支持自动生成背景音效。

音频驱动功能:

用户可以上传人物图片,输入文本或音频,模型能精准匹配嘴型,让图片中的人物“说话"或"唱歌”,呈现符合语气的面部表情。

动作驱动功能:

用户上传图片后,选择动作模板,模型可让图片中的人物完成跳舞、挥手、做体操等动作,适用于短视频创作、游戏角色动画和影视制作。

高质量视频输出:支持2K高清画质,适用于写实、动漫和CGI等多种角色和场景。

混元图生视频的技术原理

图像到视频的生成框架:

HunyuanVideo-12V通过图像潜在拼接技术,将参考图像的信息整合到视频生成过程中。输入图像首先经过预训练的多模态大型语言模型(MLLM)处理,生成语义图像token,然后与视频潜在token拼接,实现跨模态的全注意力计算。

多模态大型语言模型(MLLM):

模型采用具有Decoder-only结构的MLLM作为文本编码器,显著增强了对输入图像语义内容的理解能力。与传统的CLIP或T5模型相比,MLLM在图像细节描述和复杂推理方面表现更佳,能够更好地实现图像与文本描述信息的深度融合。

3D变分自编码器(3D VAE):

为了高效处理视频和图像数据,HunyuanVideo-12V使用CausalConv3D技术训练了-个3D VAE,将像素空间中的视频和图像压缩到紧凑的潜在空间。这种设计显著减少了后续模型中的token数量,能在原始分辨率和帧率下进行训练。

双流转单流的混合模型设计:

在双流阶段,视频和文本token通过多个Transformer块独立处理,避免相互干扰;在单流阶段,将视频和文本token连接起来,进行多模态信息融合。这种设计捕捉了视觉和语义信息之间的复杂交互,提升了生成视频的连贯性和语义一致性。

渐进式训练策略:

模型采用渐进式训练策略,从低分辨率、短视频逐步过渡到高分辨率、长视频。提高了模型的收敛速度,确保了生成视频在不同分辨率下的高质量。

提示词重写模型:

为解决用户提示词的语言风格和长度多变性问题,HunyuanVideo-12V引入了提示词重写模块,能将用户输入的提示词转换为模型更易理解的格式,提高生成效果。

可定制化LoRA训练:

模型支持LoRA(Low-RankAdaptation)训练,支持开发者通过少量数据训练出具有特定效果的视频生成模型,例如“头发生长“或”人物动作”等特效。

混元图生视频的项目地址

Github仓库: https://github.com/Tencent/HunyuanVideo-l2Vz

Huggingface模型库:https://huggingface.co/tencent/HunyuanVideo-l2Vz

来源:https://www.dcyzq.com/post/59.html

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com

热搜词