Meta推出了Meta LLM 编译器(Meta Large Language Model Compiler)!
Meta LLM 是基于 Meta Code Llama 构建的模型系列,有7B和13B两个版本
Meta LLM具有代码优化和编译器功能,可以模拟编译器、预测代码大小优化的最佳路径,并可以反汇编代码。
该编译器还能针对特定的优化和编译器任务进行微调
LLM编译器FTD(微调版本)在代码大小优化上实现了5.24%的提升(超过优化选项-Oz),
GPT-4 Turbo为0.03% 在反汇编能力上,LLM编译器FTD达到了0.96的往返BLEU得分,GPT-4 Turbo为0.43
大型语言模型 (LLMs) 在各种软件工程和编码任务中表现出卓越的能力。然而,它们在代码和编译器优化领域的应用仍未得到充分探索。
训练LLMs是资源密集型的,需要大量的 GPU 小时和大量的数据收集,这可能令人望而却步。为了弥补这一差距,我们引入了 Meta Large Language Model Compiler (LLM Compiler),这是一套健壮的、公开可用的、预训练的模型,专为代码优化任务而设计。Compiler 建立在 Code Llama 的基础上,LLM增强了对编译器中间表示 (IR)、汇编语言和优化技术的理解。
该模型已经在 5460 亿个 LLVM-IR 和汇编代码的庞大语料库上进行了训练,并经过了指令微调以解释编译器行为。LLM编译器在定制的商业许可下发布,允许广泛重用,并提供两种大小:70 亿和 130 亿个参数。
我们还展示了该模型的微调版本,展示了其在优化代码大小以及从 x86_64 和 ARM 汇编反汇编回 LLVM-IR 方面的增强功能。这些实现了自动调整搜索的 77% 的优化潜力,以及 45% 的反汇编往返(14% 的完全匹配)。此版本旨在为学术研究人员和行业从业者在编译器优化方面的进一步研究和开发提供可扩展、经济高效的基础。