IT之家 12 月 19 日消息,蘋果公司昨日(12 月 18 日)發(fā)布博文,宣布和英偉達(dá)(Nvidia)合作,通過開源 Recurrent Drafter(ReDrafter)推測解碼方法,顯著提升了 AI 大語言模型(LLM)的推理速度。
蘋果公司表示 ReDrafter 已集成到 NVIDIA TensorRT-LLM 推理加速框架中,在 NVIDIA GPU 上,每秒生成 tokens 速度最高提升 2.7 倍,有效降低了用戶延遲和計算成本。
蘋果的機器學(xué)習(xí)研究人員指出,LLM 越來越多地用于驅(qū)動生產(chǎn)應(yīng)用程序,提高推理效率對降低計算成本和用戶延遲至關(guān)重要。
IT之家援引蘋果官方博文,ReDrafter 使用 RNN 草稿模型,結(jié)合波束搜索(beam search)與動態(tài)樹注意力(dynamic tree attention),可以讓開源模型每步生成最多 3.5 個 tokens,超越了先前推測性解碼技術(shù)的性能。
為將 ReDrafter 應(yīng)用于生產(chǎn)環(huán)境,蘋果與 NVIDIA 展開合作,將其集成到 NVIDIA TensorRT-LLM 框架中。
英偉達(dá)為此添加了新的運算符并公開了現(xiàn)有運算符,增強了 TensorRT-LLM 對復(fù)雜模型和解碼方法的適應(yīng)性。
基準(zhǔn)測試結(jié)果顯示,在 NVIDIA GPU 上使用集成了 ReDrafter 的 TensorRT-LLM 框架,數(shù)百億參數(shù)規(guī)模的生產(chǎn)模型的解碼速度提升了 2.7 倍。這不僅降低了用戶體驗延遲,還減少了 GPU 使用數(shù)量和功耗。
IT之家附上參考地址
Apple collaborates with NVIDIA to research faster LLM performance
NVIDIA TensorRT-LLM Now Supports Recurrent Drafting for Optimizing LLM Inference
廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。