設(shè)置
  • 日夜間
    隨系統(tǒng)
    淺色
    深色
  • 主題色

開啟無縫 AI 語音聊天,OpenAI 下周開始向 ChatGPT Plus 用戶推出 Alpha 版 GPT-4o 語音模式

2024/7/26 15:32:59 來源:IT之家 作者:故淵 責(zé)編:故淵
感謝IT之家網(wǎng)友 FairyFairy 的線索投遞!

IT之家 7 月 26 日消息,OpenAI 首席執(zhí)行官山姆?阿爾特曼(Sam Altman)今天回復(fù)網(wǎng)友提問,表示將于下周面向 ChatGPT Plus 用戶,開放 Alpha 版本 GPT-4o 的語音模式(Voice Mode),實現(xiàn)無縫聊天。

IT之家今年 5 月報道,OpenAI 首席技術(shù)官穆里?穆拉蒂(Mira Murati)在演講中表示:

在 GPT-4o 中,我們訓(xùn)練了跨文本、視覺和音頻的端到端全新統(tǒng)一模型,這意味著所有輸入和輸出都由同一個神經(jīng)網(wǎng)絡(luò)處理。

由于 GPT-4o 是我們第一個結(jié)合所有這些模式的模型,因此我們在探索該模型的功能及其局限性方面仍處于起步階段。

OpenAI 公司原計劃今年 6 月底,邀請一小部分 ChatGPT Plus 用戶測試 GPT-4o 語音模式,但官方在 6 月宣布推遲,表示需要更多時間打磨該模型,提高該模型檢測和拒絕某些內(nèi)容的能力。

根據(jù)此前曝光的信息,GPT-3.5 模型的平均語音反饋延遲為 2.8 秒,而 GPT-4 模型的延遲為 5.4 秒,因此在語音交流方面不太優(yōu)秀,而即將推出的 GPT-4o 可以極大地縮短延遲時間,近乎無縫對話。

廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。

相關(guān)文章

關(guān)鍵詞:AIOpenAI,GPT4o

軟媒旗下網(wǎng)站: IT之家 最會買 - 返利返現(xiàn)優(yōu)惠券 iPhone之家 Win7之家 Win10之家 Win11之家

軟媒旗下軟件: 軟媒手機(jī)APP應(yīng)用 魔方 最會買 要知