IT之家 4 月 11 日消息,Mistral AI 公司近日推出了 Mixtral 8x22B 開源模型,共有 1760 億個(gè)參數(shù),Context 長度(上下文文本)為 6.5 萬個(gè) token,可以通過 Torrent 下載。
Mistral AI 公司自成立以來一直備受外界關(guān)注,“6 人團(tuán)隊(duì),7 頁 PPT,8 億融資”不斷締造傳奇,而且在得到微軟的投資之后更是進(jìn)入發(fā)展快車道。
該公司今天發(fā)布的 Mixtral 8x22B 是個(gè)開源模型,官方目前放出了 Torrent 種子鏈接,文件大小為 281GB。用戶可以通過磁性鏈接直接下載,或者通過 HuggingFace 和 Perplexity AI Labs 平臺(tái)進(jìn)行下載。IT之家附上相關(guān)截圖如下:
Mixtral 8x22B 共有 1760 億個(gè)參數(shù),Context 長度(上下文文本)為 6.5 萬個(gè) token,不過為單一任務(wù)可以調(diào)用部分模型(440 億參數(shù)),因此使用起來更加靈活。
廣告聲明:文內(nèi)含有的對(duì)外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時(shí)間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。