設置
  • 日夜間
    隨系統(tǒng)
    淺色
    深色
  • 主題色

4o-mini 只有 8B、o1 也才 300B,微軟論文意外曝光 GPT 核心機密

量子位 2025/1/2 11:14:46 責編:汪淼

微軟又把 OpenAI 的機密泄露了??在論文中明晃晃寫著:

o1-preview 約 300B 參數(shù),GPT-4o 約 200B,GPT-4o-mini 約 8B……

英偉達 2024 年初發(fā)布 B200 時,就攤牌了 GPT-4 是 1.8T MoE 也就是 1800B,這里微軟的數(shù)字更精確,為 1.76T。

除此之外,論文中給 OpenAI 的 mini 系列,Claude3.5 Sonnet 也都附上了參數(shù),總結如下:

  • o1-preview 約 300B;o1-mini 約 100B

  • GPT-4o 約 200B;GPT-4o-mini 約 8B

  • Claude 3.5 Sonnet 2024-10-22 版本約 175B

  • 微軟自己的 Phi-3-7B,這個不用約了就是 7B

雖然論文中后面也有免責聲明:

確切數(shù)據(jù)尚未公開,這里大部分數(shù)字是估計的。

但還是有不少人覺得事情沒這么簡單。

比如為什么唯獨沒有放谷歌 Gemini 模型的參數(shù)估計?或許他們對放出來的數(shù)字還是有信心的。

也有人認為,大多數(shù)模型都是在英偉達 GPU 上運行的,所以可以通過 token 生成速度來估計。

只有谷歌模型是在 TPU 上運行的,所以不好估計。

而且微軟也不是第一次干這事了。

2023 年 10 月,微軟就在一篇論文里“意外”曝出 GPT-3.5-Turbo 模型的 20B 參數(shù),在后續(xù)論文版本中又刪除了這一信息。

就說你是故意的還是不小心的?

微軟這篇論文說了什么

實際上,原論文介紹了一項與醫(yī)學相關的 benchmark——MEDEC。

12 月 26 日就已經發(fā)布,不過是比較垂直領域的論文,可能非相關方向的人都不會看,年后才被列文虎克網友們發(fā)現(xiàn)。

研究起因是,據(jù)美國醫(yī)療機構調查顯示,有 1/5 的患者在閱讀臨床筆記時報告發(fā)現(xiàn)了錯誤,而 40% 的患者認為這些錯誤可能影響他們的治療。

而且另一方面,LLMs (大語言模型)被越來越多的用于醫(yī)學文檔任務(如生成診療方法)。

因此,MEDEC 此番有兩個任務。一是識別并發(fā)現(xiàn)臨床筆記中的錯誤;二是還能予以改正。

為了進行研究,MEDEC 數(shù)據(jù)集包含 3848 份臨床文本,其中包括來自三個美國醫(yī)院系統(tǒng)的 488 份臨床筆記,這些筆記之前未被任何 LLM 見過。

它涵蓋五種類型的錯誤(診斷、管理、治療、藥物治療和致病因子),這些錯誤類型是通過分析醫(yī)學委員會考試中最常見的問題類型選擇的,并由 8 位醫(yī)療人員參與錯誤標注。

而參數(shù)泄露即發(fā)生在實驗環(huán)節(jié)

按照實驗設計,研究者將選取近期主流的大模型和小模型來參與筆記識別和糾錯。

而就在介紹最終選定的模型時,模型參數(shù)、發(fā)布時間一下子都被公開了。

對了,省去中間過程,這項研究得出的結論是:Claude 3.5 Sonnet 在錯誤標志檢測方面優(yōu)于其他 LLM 方法,得分為 70.16,第二名是 o1-mini。

網友:按價格算合理

每一次,ChatGPT 相關模型架構和參數(shù)泄露,都會引起軒然大波,這次也不例外。

2023 年 10 月,微軟論文聲稱 GPT-3.5-Turbo 只有 20B 參數(shù)的時候,就有人感嘆:難怪 OpenAI 對開源模型這么緊張。

2024 年 3 月,英偉達確認 GPT-4 是 1.8T MoE,而 2000 張 B200 可以在 90 天內完成訓練的時候,大家覺得 MoE 已經且仍將是大模型架構趨勢。

這一次,基于微軟估計的數(shù)據(jù),網友們主要有幾個關注點:

如果 Claude 3.5 Sonnet 真的比 GPT-4o 還小,那 Anthropic 團隊就擁有技術優(yōu)勢。

以及不相信 GPT-4o-mini 只有 8B 這么小。

不過此前也有人根據(jù)推理成本來算,4o-mini 的價格是 3.5-turbo 的 40%,如果 3.5-turbo 的 20B 數(shù)字準確,那么 4o-mini 剛好是 8B 左右。

不過這里的 8B 也是指 MoE 模型的激活參數(shù)。

總之,OpenAI 大概是不會公布確切數(shù)字了。

此前阿爾特曼征集 2024 年新年愿望,最后公布的清單中還有“開源”。2025 年的最新版本里,開源已經被去掉了。

論文地址:

https://arxiv.org/pdf/2412.19260

本文來自微信公眾號:量子位(ID:QbitAI),作者:夢晨、一水,原標題《4o-mini 只有 8B,o1 也才 300B!微軟論文意外曝光 GPT 核心機密》

廣告聲明:文內含有的對外跳轉鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結果僅供參考,IT之家所有文章均包含本聲明。

相關文章

關鍵詞:微軟論文,微軟AI,微軟OpenAIGPT

軟媒旗下網站: IT之家 最會買 - 返利返現(xiàn)優(yōu)惠券 iPhone之家 Win7之家 Win10之家 Win11之家

軟媒旗下軟件: 軟媒手機APP應用 魔方 最會買 要知