推翻「预测下一个token」范式!微信AI新研究:把token压缩成连续向量更具性价比

[复制链接]
周大 发表于 3 天前 | 显示全部楼层 |阅读模式
微信AI与清华团队提出连续自回归语言模型CALM,通过将K个token压缩为连续向量,使生成步骤减少至1/K。实验表明,CALM在保持性能的同时,训练和推理计算量分别降低44%和34%,并引入能量损失、BrierLM评估等新方法,提升大模型生成效率与性价比。
来源:https://mp.weixin.qq.com/s/PyqATWx3qKp1de-YZceQMw

搜索|Archiver|手机版|靠浦网络|靠浦ai课堂 ( 鄂ICP备17024134号-3 )

GMT+8, 2025-11-9 06:13 , Processed in 0.288425 second(s), 24 queries .

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表