IT之家 2 月 23 日消息,本周,OpenAI 的一名員工公開指責(zé)埃隆?馬斯克旗下的 xAI 公司,稱其發(fā)布的最新 AI 模型 Grok 3 的基準(zhǔn)測(cè)試結(jié)果具有誤導(dǎo)性。對(duì)此,xAI 的聯(lián)合創(chuàng)始人伊戈?duì)?巴布什金(Igor Babushkin)則堅(jiān)稱公司并無不當(dāng)。
xAI 在其博客上發(fā)布了一張圖表,展示了 Grok 3 在 AIME 2025(一項(xiàng)近期邀請(qǐng)制數(shù)學(xué)考試中的高難度數(shù)學(xué)題集)上的表現(xiàn)。盡管一些專家質(zhì)疑 AIME 作為 AI 基準(zhǔn)的有效性,但 AIME 2025 及其早期版本仍被廣泛用于評(píng)估模型的數(shù)學(xué)能力。
IT之家注意到,xAI 的圖表顯示,Grok 3 的兩個(gè)版本 ——Grok 3 Reasoning Beta 和 Grok 3 mini Reasoning—— 在 AIME 2025 上的表現(xiàn)超過了 OpenAI 當(dāng)前最強(qiáng)的可用模型 o3-mini-high。然而,OpenAI 的員工很快在 X 平臺(tái)上指出,xAI 的圖表并未包含 o3-mini-high 在“cons@64”條件下的 AIME 2025 得分。
“cons@64”是指“consensus@64”,即允許模型在基準(zhǔn)測(cè)試中對(duì)每個(gè)問題嘗試 64 次,并將出現(xiàn)頻率最高的答案作為最終答案。可想而知,這種方式往往會(huì)顯著提升模型的基準(zhǔn)測(cè)試分?jǐn)?shù),如果圖表中省略這一數(shù)據(jù),就可能讓人誤以為某個(gè)模型的表現(xiàn)優(yōu)于另一模型,而實(shí)際情況未必如此。
在 AIME 2025 的“@1”條件下(即模型首次嘗試的得分),Grok 3 Reasoning Beta 和 Grok 3 mini Reasoning 的得分低于 o3-mini-high。Grok 3 Reasoning Beta 的表現(xiàn)也略低于 OpenAI 的 o1 模型在“中等計(jì)算”設(shè)置下的得分。然而,xAI 仍在宣傳 Grok 3 為“世界上最聰明的 AI”。
巴布什金在 X 平臺(tái)上辯稱,OpenAI 過去也曾發(fā)布過類似的誤導(dǎo)性基準(zhǔn)測(cè)試圖表。盡管這些圖表是用于比較其自身模型的表現(xiàn)。
在這場(chǎng)爭(zhēng)議中,一位中立的第三方重新繪制了一張更為“準(zhǔn)確”的圖表:
但正如 AI 研究員內(nèi)森?蘭伯特(Nathan Lambert)在一篇文章中指出的,或許最重要的指標(biāo)仍然未知:每個(gè)模型達(dá)到最佳分?jǐn)?shù)所需的計(jì)算(和金錢)成本。這恰恰表明,大多數(shù) AI 基準(zhǔn)測(cè)試在傳達(dá)模型的局限性和優(yōu)勢(shì)方面仍然存在很大的不足。
廣告聲明:文內(nèi)含有的對(duì)外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時(shí)間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。