国产视觉模型Glint-MVT实现新突破

[复制链接]
周大 发表于 2025-5-23 15:24:50 | 显示全部楼层 |阅读模式
格灵深瞳推出的国产视觉基础模型Glint-MVT,在26个分类测试中超越CLIP和OpenCLIP,平均准确率分别高出1.1%和2.3%。该模型采用创新的间隔Softmax损失函数与百万级虚拟类别训练,显著提升数据规模和泛化能力。基于此开发的Glint-RefSeg和MVT-VLM多模态模型,分别在图像分割与理解领域达到业界领先水平,并支持视频分割和具身智能任务。格灵深瞳坚持从实际需求出发,注重AI落地,同时积极拥抱开源,推动技术创新与生态建设。
来源:https://mp.weixin.qq.com/s/CXEGGF9tJUycreIpPgV98Q

Archiver|手机版|靠浦网络|靠浦ai课堂 ( 鄂ICP备17024134号-3 )

GMT+8, 2025-6-9 12:02 , Processed in 0.255814 second(s), 22 queries .

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表