比NanoBanana更擅长中文和细节控制!兔展&北大Uniworld V2刷新SOTA

[复制链接]
周大 发表于 4 天前 | 显示全部楼层 |阅读模式
兔展智能与北大团队联合发布图像编辑模型UniWorld-V2及其训练框架UniWorld-R1,后者为首个引入强化学习策略优化的通用图像编辑后期训练框架,并创新使用多模态大模型(如GPT-4V)作为免训练奖励模型。UniWorld-V2在GEdit-Bench(7.83分)和ImgEdit(4.49分)基准上均超越GPT-Image-1等顶尖闭源模型,展现出卓越的指令对齐、中文字体处理、空间控制与光影融合能力。实验基于2.7万+样本,涵盖九类任务,在多个基础模型上验证了UniWorld-R1的通用性与泛化性。相关成果已开源,推动图像编辑技术发展。
来源:https://mp.weixin.qq.com/s/MnnqP4KKdcqLIb6116HZaw

搜索|Archiver|手机版|靠浦网络|靠浦ai课堂 ( 鄂ICP备17024134号-3 )

GMT+8, 2025-11-9 06:14 , Processed in 0.278929 second(s), 24 queries .

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表