設(shè)置
  • 日夜間
    隨系統(tǒng)
    淺色
    深色
  • 主題色

人人都是程序員,英偉達聯(lián)合推出 StarCoder2 模型:生成、補全、調(diào)試代碼一氣呵成

2024/2/29 9:16:08 來源:IT之家 作者:故淵 責(zé)編:故淵

IT之家 2 月 29 日消息,英偉達近日聯(lián)合 Hugging Face 和 ServiceNow,發(fā)布了名為 StarCoder2 的 LLMs 系列模型,希望成為代碼生成領(lǐng)域的新標準,具備性能、透明度和成本效益等諸多優(yōu)勢。

該系列模型包括一個由 ServiceNow 訓(xùn)練的 30 億參數(shù)模型、一個由 Hugging Face 訓(xùn)練的 70 億參數(shù)模型和一個由英偉達訓(xùn)練的 150 億參數(shù)模型。

這是通過使用名為 Stack v2 的新代碼數(shù)據(jù)集實現(xiàn)的,該數(shù)據(jù)集比 Stack v1 大七倍;新的訓(xùn)練技術(shù)也意味著該模型可以更好地理解 COBOL 等低資源編程語言、數(shù)學(xué)和程序源代碼討論。

StarCoder2 經(jīng)過 619 門編程語言培訓(xùn),可以執(zhí)行源代碼生成、工作流生成、文本摘要等專業(yè)任務(wù)。英偉達表示,開發(fā)人員可以利用它進行代碼補全、高級代碼總結(jié)、代碼片段檢索等,從而提高工作效率。

英偉達表示相比較初版 StarCoder LLMs,新的 30 億參數(shù)模型進一步精簡和篩選了優(yōu)質(zhì)參數(shù),其性能相當(dāng)于 150 億參數(shù)模型的初版 StarCoder。

StarCoder2 采用 BigCode Open RAIL-M 許可證,允許免版稅訪問和使用。IT之家注:感興趣的用戶可從 BigCode 項目的 GitHub 頁面獲取源代碼,可從 Hugging Face 下載模型。

相關(guān)閱讀:

英偉達 CEO 黃仁勛寄語:學(xué)習(xí)編程價值大幅降低,生成式 AI 讓人人都是程序員

廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。

相關(guān)文章

關(guān)鍵詞:英偉達,AI

軟媒旗下網(wǎng)站: IT之家 最會買 - 返利返現(xiàn)優(yōu)惠券 iPhone之家 Win7之家 Win10之家 Win11之家

軟媒旗下軟件: 軟媒手機APP應(yīng)用 魔方 最會買 要知