近日消息,Meta 前天推出了一款名為“LLM Compiler”的模型,該模型基于 Meta 現有的 Code Llama 打造,主打代碼優化,目前相關模型已登陸 Hugging Face,提供 70 億參數及 130 億參數兩個版本,允許學術及商業使用。

Meta 認為,盡管業界各大語言模型已在各種編程代碼任務中展現了出色的能力,但此類模型在代碼優化還有進步空間,目前推出的 LLM Compiler 模型便是一款專為優化代碼任務設計的預訓練模型,能夠模擬編譯器對代碼進行優化,或將“已經過優化的代碼轉換回原本的語言”。
LLM Compiler 在 5460 億個 LLVM-IR 和匯編代碼標記的龐大語料庫上進行了訓練,據稱能夠達到 77% 的“代碼優化潛力”,開發者可以自由將相關模型配合其他 AI 模型一起使用,從而改善生成代碼的質量。
原創文章,作者:蘋果派,如若轉載,請注明出處:http://www.bdzhitong.com/article/664475.html