普林斯顿团队推出GTA与GLA注意力机制,推理速度提升2倍且KV缓存减半

[复制链接]
周大 发表于 7 天前 | 显示全部楼层 |阅读模式
普林斯顿大学研究团队提出两种新型注意力机制GTA和GLA,专为大语言模型推理优化设计。GTA通过参数绑定减少约50%的KV缓存用量,性能媲美GQA;GLA借助潜在层压缩上下文,解码速度较FlashMLA快2倍,尤其在长上下文场景中表现突出。实验结果表明,这两种机制在保持模型质量的同时显著提升解码效率和硬件利用率。该研究由Mamba架构作者之一Tri Dao领衔,旨在解决现有注意力机制的内存冗余和计算低效问题,被认为是迈向“理想”推理架构的重要一步。
来源:https://tech.ifeng.com/c/8jpQAbvcjHr

Archiver|手机版|靠浦网络|靠浦ai课堂 ( 鄂ICP备17024134号-3 )

GMT+8, 2025-6-8 18:27 , Processed in 0.290321 second(s), 24 queries .

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表