IT之家 6 月 30 日消息,Meta 前天推出了一款名為“LLM Compiler”的模型,該模型基于 Meta 現(xiàn)有的 Code Llama 打造,主打代碼優(yōu)化,目前相關模型已登陸 Hugging Face,提供 70 億參數(shù)及 130 億參數(shù)兩個版本,允許學術及商業(yè)使用,IT之家附項目地址如下:點此訪問。
Meta 認為,盡管業(yè)界各大語言模型已在各種編程代碼任務中展現(xiàn)了出色的能力,但此類模型在代碼優(yōu)化還有進步空間,目前推出的 LLM Compiler 模型便是一款專為優(yōu)化代碼任務設計的預訓練模型,能夠模擬編譯器對代碼進行優(yōu)化,或將“已經過優(yōu)化的代碼轉換回原本的語言”。
IT之家獲悉,LLM Compiler 在 5460 億個 LLVM-IR 和匯編代碼標記的龐大語料庫上進行了訓練,據(jù)稱能夠達到 77% 的“代碼優(yōu)化潛力”,開發(fā)者可以自由將相關模型配合其他 AI 模型一起使用,從而改善生成代碼的質量。
廣告聲明:文內含有的對外跳轉鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結果僅供參考,IT之家所有文章均包含本聲明。