北京大学王选计算机研究所团队提出InteractMove,首次实现基于文本控制的可移动物体3D人-物交互生成。研究构建了涵盖71类物体、21种交互的大规模数据集,并设计“定位—可达图—碰撞感知”三阶段框架,在交互准确性、物理合理性和多样性等指标上全面超越现有方法,多样性提升18%,物理合理性提升14%。该成果已被ACM MM 2025接收,代码开源,为虚拟现实、数字人等应用提供关键技术支撑。
来源:https://mp.weixin.qq.com/s/YyjKZPyUbNzbmxCgpSDliw