华中科大与港中文团队提出GOAT框架,单卡微调大模型性能佳且内存占用降8倍

[复制链接]
周大 发表于 2025-5-28 15:00:16 | 显示全部楼层 |阅读模式
华中科技大学与香港中文大学团队提出全新LoRA微调框架GOAT,通过自适应奇异值初始化与混合专家梯度对齐策略,有效缓解传统LoRA性能不足问题。实验表明,GOAT在25个跨领域任务中接近或超越全参数微调效果,仅调整少量参数,内存需求降低8倍,训练效率大幅提升,具备广泛实用价值。
来源:https://mp.weixin.qq.com/s/2ZvHV0YBTWUkXJFkmJ2D6g

Archiver|手机版|靠浦网络|靠浦ai课堂 ( 鄂ICP备17024134号-3 )

GMT+8, 2025-6-9 06:43 , Processed in 0.281182 second(s), 23 queries .

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表