ACMMM 2025 | 北大团队提出 InteractMove:3D场景中人与可移动物体交互动作生成新框架

[复制链接]
周大 发表于 2025-10-19 15:15:49 | 显示全部楼层 |阅读模式
北京大学王选计算机研究所团队提出InteractMove,首次实现基于文本控制的可移动物体3D人-物交互生成。研究构建了涵盖71类物体、21种交互的大规模数据集,并设计“定位—可达图—碰撞感知”三阶段框架,在交互准确性、物理合理性和多样性等指标上全面超越现有方法,多样性提升18%,物理合理性提升14%。该成果已被ACM MM 2025接收,代码开源,为虚拟现实、数字人等应用提供关键技术支撑。
来源:https://mp.weixin.qq.com/s/YyjKZPyUbNzbmxCgpSDliw

搜索|Archiver|手机版|靠浦网络|靠浦ai课堂 ( 鄂ICP备17024134号-3 )

GMT+8, 2025-11-9 12:30 , Processed in 0.305693 second(s), 24 queries .

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表