打破思维链推理瓶颈!“软推理”让大模型学会人类抽象能力,token使用量还更少了

[复制链接]
周大 发表于 2025-5-24 14:31:25 | 显示全部楼层 |阅读模式
SimularAI与微软DeepSpeed联合提出的Soft Thinking方法,使大模型能在连续概念空间中进行软推理,突破了传统CoT基于离散token的限制。该方法无需额外训练即可适配现有模型(如Llama、Qwen),在基准测试中将Pass@1准确率最高提升2.48%,同时减少22.4%的token使用量。通过概率加权和Cold Stop机制,Soft Thinking实现了更高效、灵活的推理能力,为大模型优化提供了新思路。
来源:https://mp.weixin.qq.com/s/a12P9YSNcII565BA7NBB1Q

Archiver|手机版|靠浦网络|靠浦ai课堂 ( 鄂ICP备17024134号-3 )

GMT+8, 2025-6-9 11:52 , Processed in 0.264896 second(s), 22 queries .

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表