IT之家 1 月 21 日消息,階躍星辰昨日上線了 Step-2 系列語(yǔ)言模型的兩款新品 —— 參數(shù)量小、性價(jià)比更高的 Step-2 mini,以及專門針對(duì)內(nèi)容創(chuàng)作領(lǐng)域推出的模型 Step 文學(xué)大師版。
IT之家從官方介紹獲悉,Step-2 mini 和萬(wàn)億參數(shù)大模型 Step-2 相比,以 3% 左右的參數(shù)量保有了其 80% 以上的模型性能。
與此同時(shí),Step-2 mini 擁有更快的生成速度和極高的性價(jià)比。在輸入 4000 tokens 的情況下,Step-2 mini 的平均首字時(shí)延僅 0.17 秒。目前,大家已經(jīng)可以在階躍星辰開放平臺(tái)調(diào)用 Step-2 mini 的 API 接口。輸入 1 元 / 百萬(wàn) token;輸出 2 元 / 百萬(wàn) token。
Step-2 mini 采用了階躍星辰自主研發(fā)的新型注意力機(jī)制架構(gòu) ——MFA(Multi-matrix Factorization Attention,多矩陣分解注意力)及其變體 MFA-Key-Reuse,相比于常用的 MHA(Multi-Head Attention,多頭注意力)架構(gòu),節(jié)省了近 94% 的 KV 緩存開銷,擁有更快的推理速度并大幅降低了推理成本。
據(jù)官方介紹,Step-2 文學(xué)大師版是一款專為文字內(nèi)容創(chuàng)作研發(fā)的模型,沿襲了 Step-2 的知識(shí)儲(chǔ)備、對(duì)文字強(qiáng)大的細(xì)節(jié)把控能力,特色在于具有更加強(qiáng)大的內(nèi)容創(chuàng)作能力。Step-2 文學(xué)大師版力求解決市面上語(yǔ)言模型過(guò)度對(duì)齊導(dǎo)致的內(nèi)容“假大空”,缺乏新意和真情實(shí)感的問題。
廣告聲明:文內(nèi)含有的對(duì)外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時(shí)間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。