Meta推出KernelLLM:8B参数模型高效生成Triton GPU内核,性能超越GPT-4o

[复制链接]
周大 发表于 2025-5-27 15:18:11 | 显示全部楼层 |阅读模式
Meta推出的KernelLLM是一个基于Llama 3.1微调的8B参数模型,可将PyTorch代码自动转换为高效的Triton GPU内核。尽管参数量较小,其单次推理性能却超越了GPT-4o和DeepSeek V3,并在多次生成时得分显著提升。该模型使用超过25000对(PyTorch,Triton)代码示例进行训练,在KernelBench-Triton测试中表现出色,无论是简单操作还是复杂模型架构均能稳定应对。
来源:https://mp.weixin.qq.com/s/-g_Mkf4fErnirGoiNZpf2A

Archiver|手机版|靠浦网络|靠浦ai课堂 ( 鄂ICP备17024134号-3 )

GMT+8, 2025-6-9 05:17 , Processed in 0.292632 second(s), 24 queries .

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表