视频扩散模型新突破!清华腾讯联合实现高保真3D生成,告别多视图依赖

[复制链接]
周大 发表于 前天 15:08 | 显示全部楼层 |阅读模式
清华大学与腾讯合作提出的Scene Splatter,解决了三维场景生成中单张图像重建的难题。该方法通过视频扩散模型和创新的两级动量引导机制,生成多视角高质量视频片段,大幅提升三维场景的一致性和保真度。相比Flash3D、CogVideo等现有方法,Scene Splatter在场景补全和一致性方面表现更优,并支持任意相机轨迹的三维探索。实验结果显示,其在不同图像风格和复杂场景中均表现出色,为三维生成领域提供了新的解决方案。
来源:https://mp.weixin.qq.com/s/Pj2AoIkJYgW6XjlYA5D3Yw

Archiver|手机版|靠浦网络|靠浦ai课堂 ( 鄂ICP备17024134号-3 )

GMT+8, 2025-6-15 19:22 , Processed in 0.289598 second(s), 23 queries .

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表