Ai算力 门户 Ai大模型 查看内容

清华大学TSAIL实验室联合生数科技推出开源视频生成加速框架TurboDiffusion ... ...

2025-12-25 19:53| 发布者: aisuanli 9 0

摘要: 清华大学TSAIL实验室联合生数科技推出开源视频生成加速框架TurboDiffusion,实现100-200倍推理提速,消费级显卡可秒级生成高清视频,打破AI视频创作效率瓶颈,推动行业规模化应用。 ...
 近日,清华大学TSAIL实验室(人工智能研究院)联合生数科技正式推出开源视频生成加速框架TurboDiffusion,该框架通过多维度技术创新,在保持近乎无损视觉质量的前提下,将AI视频扩散模型的推理速度提升100-200倍,标志着AI视频创作正式迈入实时生成时代。这一突破性成果不仅解决了高分辨率视频生成的延迟痛点,更大幅降低了硬件门槛,让消费级显卡也能流畅完成专业级视频生成任务。
长期以来,AI视频生成技术受限于复杂的计算逻辑,存在生成周期长、硬件成本高的行业痛点。即便是主流的13亿-140亿参数视频生成模型,生成一段短时长高清视频也需耗费数分钟甚至数小时,且需依赖昂贵的专业数据中心级GPU。TurboDiffusion的出现彻底改变了这一现状,通过“算法+系统”的协同优化策略,构建了高效的推理加速体系。

该框架的核心优势源于四项关键技术的深度融合。其一,采用SageAttention低比特量化计算,结合GPU张量核心加速,大幅提升注意力机制运算效率;其二,引入稀疏线性注意力(SLA),仅保留关键注意力连接,减少90%以上的冗余计算量;其三,通过时间步蒸馏(rCM)技术,将传统数百个采样步骤压缩至3-4步,同时依托分数正则化保障视频时空一致性;其四,采用W8A8全链路量化策略,将模型权重与激活值均量化为8位整数,使模型体积减半,显存占用削减60%。这些技术方案相互兼容,仅需6个训练步骤即可复制,显著提升了落地可行性。

实测数据充分验证了TurboDiffusion的加速效果。在单张RTX 5090显卡上,生成5秒480P视频的时间从184秒缩短至1.9秒,提速近97倍;对于参数量达140亿的Wan2.2-I2V-A14B-720P模型,生成高清视频的时间从超1小时(4549秒)压缩至38秒,提速超119倍。即便在消费级RTX 4090显卡上,该框架也能流畅运行大型模型,无需依赖A100、H100等专业昂贵显卡,使单次视频生成的计算成本降低90%以上。

作为完全开源的技术方案,TurboDiffusion已在GitHub开放全套代码、预训练模型权重及训练脚本,推出后迅速引发全球AI社区关注,Meta、OpenAI等国际团队均对其表示关注。该框架的落地将推动AI视频生成从实验阶段走向大规模应用,在短视频创作、影视分镜制作、广告个性化营销、教育课件生成等领域释放巨大价值。例如影视剧组可在30秒内生成可视化分镜视频,替代传统3-5天的手绘周期;教师输入实验描述即可快速生成专业教学视频,大幅降低课件制作门槛。

清华大学TSAIL实验室相关负责人表示,TurboDiffusion的开源旨在构建普惠性的AI视频创作生态,为全球开发者提供高效工具。生数科技团队则补充,未来将持续优化框架的硬件适配能力,探索在移动端设备的部署可能,进一步拓展实时视频生成的应用场景。业内专家评价,这一成果是中国在AI内容生成基础研究领域的重要突破,为全球视频生成技术发展提供了自主创新的中国方案。

鲜花

握手

雷人

路过

鸡蛋

相关分类

返回顶部