API 商業(yè)模式能不能成立,最終并不只是看價格。
作者 | 宛辰
編輯 | 靖宇
5 月 21 日上午,阿里云在其例行峰會上,意外地釋放了大降價的消息:通義千問 GPT-4 級主力模型推理輸入價格降至 0.5 元 / 百萬 tokens,直降 97%。
這個大幅度降價的消息瞬間引發(fā)了與業(yè)界的普遍關注和討論,但短短數(shù)小時連鎖反應出現(xiàn)了,百度智能云官宣文心大模型主力模型 ERNIE Speed(上下文長度 8K、128K)、ERNIE Lite(上下文長度 8K、128K)免費。雖然這兩個模型和阿里宣布降價的模型并不完全對應,但是這個動作讓很多人開始高呼中國大模型企業(yè)的 API 商業(yè)模式,難道就這樣在 3 小時內就消失了嗎?
實際上在更早之前,字節(jié)跳動宣布,豆包通用模型推理輸入價格為 0.8 元 / 百萬 tokens。
雖然這些價格背后在并發(fā)量,模型能力上有很多不同的細節(jié)區(qū)別,甚至根據(jù)創(chuàng)業(yè)者的實際計算,真正落到業(yè)務里用起來,各家的成本下降都沒有宣傳上那么夸張。
但至少紙面上看,每百萬 token 推理輸入量,字節(jié)、阿里、百度先后在一周內官宣了 0.8 元,0.5 元和免費的報價。有業(yè)界人士甚至開玩笑說,眼瞅著下一家跟進的廠商可能就得發(fā)錢補貼讓客戶用 API 了,在這么短的時間內產生這樣劇烈的變化,到底是因為什么?這是一次市場宣傳上的內卷?還是大模型 API 調用的商業(yè)模式,就真的這么消解了嗎?
01、價格戰(zhàn)背后,大模型 API 調用的商業(yè)模式
其實最早 ChatGPT 發(fā)布時,大家對大模型直接作為服務被調用的商業(yè)模式有很大期待。畢竟,與上一波 AI 煙囪式的項目交付方式相比,大模型帶來了更通用的 AI 能力,作為標準化服務被調用,道理上也說得通。
就拿 OpenAI 來說,有兩大商業(yè)化手段,一是像 ChatGPT Plus 20 美元 / 月這樣的會員訂閱模式,另一個是開發(fā)者 API 調用服務。在這兩大標準化服務的拉動下,2023 年 12 月 31 日,The information 爆出 OpenAI 的年度經常性收入(Annual Recurring Revenue,ARR)已經達到了 16 億美元。
但即便強如 OpenAI 的模型能力,這個體量的營收相比其百億美金級別的研發(fā)成本而言,目前看也還是杯水車薪。
事實上,只提供模型的 API,距離 AI 應用在場景中落地還有很大距離,大部分 AI 應用還需要在一個通用的模型 API 之上,在場景里喂數(shù)據(jù)、做微調等來優(yōu)化模型引擎。看到這一瓶頸后,國內大模型廠商在過去一年也做了一系列探索來降低 AI 應用的門檻,以期擴大大模型的調用量。
以百度智能云為例,去年相繼推出模型開發(fā)工具 Model Builder 和 AI 應用開發(fā)工具 AppBuilder、更具效價比的不同模型等,但模型的調用增長似乎依然有限。今年 4 月,百度智能云推出生態(tài)打法,和有渠道、場景的供應商一起合作服務客戶,旨在進一步拉升文心大模型標準化的 API 調用量。這些跡象上看,大廠們顯然并沒有真的準備放棄 API 調用的商業(yè)模式,但這個商業(yè)模式還沒有真正收到成規(guī)模的錢,倒是真的問題。
上周,百度最新公布的數(shù)據(jù)顯示,文心大模型日處理文本 2500 億 token,另一大廠字節(jié)跳動日均處理 1200 億 token 文本,但其中很大一部分是大廠內部業(yè)務在調用做 AI 應用和業(yè)務探索。
可以看出,盡管模型廠商做了很多嘗試,但標準化的模型 API 并沒有迎來確定性的增長。
這是本周大廠模型推理價格降低的大前提和背景。理解了模型 API 調用的需求現(xiàn)狀,也就不難理解這一波降價動作 —— 降價并沒有真的損失多少收入,不如激活下市場,賺個吆喝,促進很多企業(yè)從「免費試用」開始下水,早點啟動對 AI 進入業(yè)務流的嘗試。
其實,這一波降價的連鎖反應,真正的源頭并不是阿里云,也不是字節(jié)跳動,比大廠降價更早的,是一家創(chuàng)業(yè)公司。
5 月 6 日,國內創(chuàng)業(yè)公司幻方旗下的大模型公司「深度求索」開源了第二代 MoE 模型:DeepSeek-V2,主打參數(shù)更多、能力更強、成本更低。
由于 DeepSeek 的技術優(yōu)勢在全球大模型圈子得到了普遍好評,而其在模型能力逼近第一梯隊閉源模型的前提下,還把推理成本降到了 1 塊錢 / 百萬 token,也就是說,成本是 Llama3 70B 的七分之一,GPT-4 Turbo 的七十分之一。而且,DeepSeek v2 還能做到有利潤,這顯然是是模型架構、系統(tǒng)、工程的一系列進步帶來的成本降低。
這一信息在實際做模型應用的產業(yè)界引起了廣泛討論,在海外也引起了不小的波動,半導體和人工智能獨立研究機構 SemiAnaysis 稱其性能直逼大模型 GPT-4 所代表的第一梯隊,同時推理價格相當?shù)停遣豢尚∮U的中國力量。
DeepSeek v2 宣布其價格為 1 元 / 百萬 token 后,隨即引來了大模型價格戰(zhàn),智譜、面壁、字節(jié)、阿里、百度,以及今天跟進的科大訊飛、騰訊云相繼宣布了模型推理價格降低。
對于各家不同的降價策略,已經有一些質疑聲音稱一些降價的模型本身吞吐量就低,而高性能模型并沒有降價。并且還有很多細節(jié)條款會讓最終企業(yè)用起來沒有宣傳的那么便宜,從這個角度看,降價更多是模型廠商出于市場和品牌的考量,進行的一波內卷。
歸根結底,能形成價格戰(zhàn)的連鎖反應,也是當前各大模型的能力放在可用的場景中,尚未拉開差距,用戶甚至有免費開源的產品可以用。
一位 SaaS 廠商創(chuàng)始人向極客公園表示,「對我來說用誰的其實無所謂,因為他們最后跑得都差不多,當把時間線拉長來看,最后這些廠商提供的模型 API 服務,99.9% 的概率跟今天的云是差不多的概念。另外,如果一個通用的模型 API 無法深度適配場景,還是要自己基于開源模型,用場景數(shù)據(jù)做專門的深度訓練,也不會接通用的模型 API?!?/p>
最終的的客戶需求,其實是端到端的訴求,是可以用、可以看到效果的東西,而不是模型調用。
02、大模型,巨頭和創(chuàng)業(yè)公司有不同的游戲
當然,模型推理價格降低本身也是技術發(fā)展帶來的必然結果,有一系列工程、架構、系統(tǒng)手段可以持續(xù)優(yōu)化。今天凌晨微軟 Build 開發(fā)者大會上,納德拉還舉例解釋了這一趨勢。他說,過去一年 GPT-4 性能提升了 6 倍,但成本降低到了之前的 1/12,對應性能 / 成本提升了 70 倍。
「難的是探索模型能力上限,至于模型推理價格一定有辦法降低」,Minimax 創(chuàng)始人閆俊杰上周坐客極客公園直播節(jié)目中表述了這一技術趨勢,他表示,模型推理價格降低到可用,在學術界已經發(fā)生過三次了,這不難。
模型技術的攀升,才是 API 調用商業(yè)模式能繼續(xù)增長的前提。其實細看今天宣布降價的模型產品也是一樣,真正大規(guī)模、高性能、支持高并發(fā)的模型推理還是要收費,降價幅度是有限的。
但長期來看,API 模式最終考驗的還是模型能力,如果技術拉不開差距,價格也一定拉不開差距,最終模型調用的價值會被稀釋,雖然依舊是重要的基礎設施,但價值大小就從油變水了。
換一個角度看,今天一個通用的模型 API 可能不是迫切的需求。就像 Lepton.ai 的創(chuàng)始人賈揚清在朋友圈表達的觀點,「站在整個 AI 業(yè)界的角度我想說,降價是個拍腦袋就可以做的簡單策略,但是真正的 To B 商業(yè)成功更難?!菇裉炱髽I(yè)在使用 AI 的時候,并不是成本驅動的,「今天不是說 API 貴才沒有人用,而是因為要搞清楚,到底怎么用起來產生業(yè)務價值」。
從這個角度看,如何把大模型能力推動到企業(yè)的業(yè)務里的很大一部分任務,可能又回落到傳統(tǒng) SaaS 廠商(用 AI 升級產品之后)手里,需要他們作為智能生產力的「干線物流」+「前置倉」,輸送到各個場景中。
隨著模型 API 直供模式的高度內卷,巨頭其實已經在向能交付價值的 SaaS 看,微軟今天宣稱 GitHub Copilot 訂閱者已經有 180 萬付費用戶。谷歌近日也正在與 CRM 營銷巨頭 Hubspot 談高達 300 億美金收購可能性,因為前者可能會利用這次收購來加強其在 AI 領域產品整合。
對于巨頭而言,模型技術和實際場景,兩個都要抓,才能有規(guī)?;氖杖搿5珰w根結底,模型能力和別人拉開距離,才是 API 模式可以產生價值的「華山一條路」的挑戰(zhàn)。
而對于大模型創(chuàng)業(yè)公司而言,也是個「華山兩條路」的局面,即要么做出比大公司更好的模型技術,要么從模型走向產品,直接創(chuàng)造價值。
智能的能力不會是免費的,但是怎么規(guī)模化的創(chuàng)造價值,巨頭和創(chuàng)業(yè)公司,都還在尋找答案。
本文來自微信公眾號:極客公園 (ID:geekpark),作者:宛辰
廣告聲明:文內含有的對外跳轉鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結果僅供參考,IT之家所有文章均包含本聲明。