設(shè)置
  • 日夜間
    隨系統(tǒng)
    淺色
    深色
  • 主題色

OpenAI 推出 GPT-4 Turbo:支持 128k 上下文,集成 DALL?E 3,號(hào)稱“比上代便宜 2/3”

2023/11/7 8:02:55 來源:IT之家 作者:漾仔(實(shí)習(xí)) 責(zé)編:漾仔

IT之家 11 月 7 日消息,OpenAI 于 3 月發(fā)布了 GPT-3.5 Turbo,而在今天的 OpenAI 首屆開發(fā)者大會(huì)上,OpenAI 推出了 GPT-4 Turbo,這款模型正處于預(yù)覽狀態(tài),號(hào)稱對(duì)于開發(fā)者而言“比上代 GPT-4 便宜三倍”。

據(jù)悉,GPT-4 Turbo 支持 128k 上下文,輸入價(jià)格比 GPT-4 便宜了三倍,速率限制翻倍,知識(shí)庫(kù)更新到 2023 年 4 月,此外還添加了 JSON Mode,更新了多個(gè)函數(shù)調(diào)用能力。相對(duì)此前 GPT-4 性能更強(qiáng)、價(jià)格更便宜、開發(fā)成本也更低。

據(jù) OpenAI 介紹稱,相比于此前 GPT-4 的 8k 上下文長(zhǎng)度,GPT-4 Turbo 具有 128k 上下文長(zhǎng)度,以一篇文章約 1k 文字計(jì)算,GPT-4 Turbo 可同時(shí)處理 128 篇文章的總和。

此外,OpenAI 還推出了名為 Json Mode 的新功能,可確保開發(fā)人員更容易讓模型調(diào)用 Json 和 XML 內(nèi)容,使模型更容易返回一致的輸出結(jié)果,從而實(shí)現(xiàn)可重復(fù)輸出,對(duì)控制模型行為、編寫模型單元測(cè)試內(nèi)容有一定作用。

GPT-4 Turbo 還支持圖像輸入,集成 DALL?E 3,可自動(dòng)總結(jié)圖片內(nèi)容及帶有圖片的文檔內(nèi)容,OpenAI 還計(jì)劃為主要的 GPT-4 Turbo 模型提供視覺支持。

在價(jià)格方面,開發(fā)人員可以通過 OpenAI 圖像 API 指定模型,每生成一張圖像的起價(jià)為 0.04 美元(當(dāng)前約 0.292 元人民幣)。

而 GPT-4 Turbo 輸入 tokens 價(jià)格,是此前 GPT-4 的 1/3,1k tokens 僅需 0.01 美元(IT之家備注:當(dāng)前約 0.073 元人民幣),輸出 tokens 價(jià)格為 1k tokens 0.03 美元(當(dāng)前約 0.219 元人民幣)。

Sam Altman 表示,將分辨率為 1080×1080 像素的圖像,上傳至給 GPT-4 Turbo 將花費(fèi) 0.00765 美元(當(dāng)前約 0.056 元人民幣)。

此外,OpenAI 還宣布了自家下一代開源語(yǔ)音識(shí)別模型,這款模型提供了六種預(yù)設(shè)聲音及兩種模型變體,用戶可通過文本轉(zhuǎn)語(yǔ)音 API 生成更自然的語(yǔ)音文件,每輸入 1000 個(gè)字符起價(jià)為 0.015 美元(當(dāng)前約 0.1095 元人民幣)。

OpenAI 的 CEO Sam Altman 聲稱,今天 GPT-4 Turbo 可供所有付費(fèi)開發(fā)者通過傳遞 gpt-4-1106-previewAPI 進(jìn)行嘗鮮,相關(guān)穩(wěn)定版本預(yù)計(jì)將在未來幾周內(nèi)發(fā)布

 

廣告聲明:文內(nèi)含有的對(duì)外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時(shí)間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。

相關(guān)文章

關(guān)鍵詞:OpenAI,GPT4 Turbo

軟媒旗下網(wǎng)站: IT之家 最會(huì)買 - 返利返現(xiàn)優(yōu)惠券 iPhone之家 Win7之家 Win10之家 Win11之家

軟媒旗下軟件: 軟媒手機(jī)APP應(yīng)用 魔方 最會(huì)買 要知