IT之家 7 月 26 日消息,OpenAI 首席執(zhí)行官山姆?阿爾特曼(Sam Altman)今天回復(fù)網(wǎng)友提問,表示將于下周面向 ChatGPT Plus 用戶,開放 Alpha 版本 GPT-4o 的語音模式(Voice Mode),實現(xiàn)無縫聊天。
IT之家今年 5 月報道,OpenAI 首席技術(shù)官穆里?穆拉蒂(Mira Murati)在演講中表示:
在 GPT-4o 中,我們訓(xùn)練了跨文本、視覺和音頻的端到端全新統(tǒng)一模型,這意味著所有輸入和輸出都由同一個神經(jīng)網(wǎng)絡(luò)處理。
由于 GPT-4o 是我們第一個結(jié)合所有這些模式的模型,因此我們在探索該模型的功能及其局限性方面仍處于起步階段。
OpenAI 公司原計劃今年 6 月底,邀請一小部分 ChatGPT Plus 用戶測試 GPT-4o 語音模式,但官方在 6 月宣布推遲,表示需要更多時間打磨該模型,提高該模型檢測和拒絕某些內(nèi)容的能力。
根據(jù)此前曝光的信息,GPT-3.5 模型的平均語音反饋延遲為 2.8 秒,而 GPT-4 模型的延遲為 5.4 秒,因此在語音交流方面不太優(yōu)秀,而即將推出的 GPT-4o 可以極大地縮短延遲時間,近乎無縫對話。
廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。