IT之家 2 月 15 日消息,IT之家從英特爾開發(fā)人員專區(qū)獲悉,2025 年首個(gè) OpenVINO 版本(2025.0)于 14 日正式發(fā)布,本次更新聚焦性能提升、更多生成式 AI 模型的支持,并針對(duì)英特爾神經(jīng)處理單元(NPU)推出關(guān)鍵優(yōu)化。
官方表示:OpenVINO 2025.0 版本正式支持 FLUX.1 圖像生成模型(含 Dev 與 Schnell 變體),可在英特爾 CPU / GPU 上通過 GenAI 流水線運(yùn)行。開發(fā)者現(xiàn)可通過 Optimum-Intel 導(dǎo)出 Flux 模型,并結(jié)合 Text2ImagePipeline 生成圖像。針對(duì) Flux 模型對(duì)精度變化非常敏感的特點(diǎn),我們進(jìn)行了深度優(yōu)化,確保圖像生成性能與準(zhǔn)確度兼得。
例如,INT8 量化版 FLUX.1-dev 模型在應(yīng)用 Yarn 風(fēng)格 LoRA 前后的對(duì)比如下(提示詞:"albert einstein, yarn art style",初始種子 = 420,迭代次數(shù) = 20):
此次還加入了 Image2Image 與 Inpainting 的支持。
Image2Image:以圖像 + 文本為輸入生成新圖像,提升結(jié)果可控性;
Inpainting:通過掩碼圖像替換輸入圖像的指定區(qū)域,支持局部?jī)?nèi)容再生。
兩種流水線均兼容 LoRA 適配器,滿足定制化需求。
本次新版本在 LLMPipeline API 中引入了對(duì)提示詞查找解碼的預(yù)覽支持,這是對(duì)推測(cè)解碼的簡(jiǎn)化,它在輸入提示詞本身中用直接查找機(jī)制取代了傳統(tǒng)的草稿模型。這有助于在具有高相似性的請(qǐng)求的情況下顯著減少生成延遲。例如,通過對(duì)一組文檔的問答可以觀察到性能優(yōu)勢(shì),因?yàn)榇鸢笇⒏鶕?jù)作為提示詞本身一部分的文檔來生成。
英特爾稱目前正在努力支持和驗(yàn)證最新模型,包括 Mistral-7B-Instruct-v0.2、Qwen2.5,“當(dāng)然我們也支持基于 LLama 和 Qwen 架構(gòu)的 DeepSeek 蒸餾模型?!?/p>
此外,2025.0 版本首次實(shí)現(xiàn) NPU 加速支持,開發(fā)者可通過 PyTorch 的 torch.compile 接口調(diào)用英特爾 NPU 算力。OpenVINO 已經(jīng)在 CPU 和 GPU 上得到支持,并且在性能方面非常接近原生 OpenVINO 推理。如下為啟用方式:
廣告聲明:文內(nèi)含有的對(duì)外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時(shí)間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。