IT之家 10 月 18 日消息,微軟旗下研究團(tuán)隊(duì)近日發(fā)表論文,詳細(xì)研究了大型語言模型 (LLM) 的“可信度”和潛在毒性,特別關(guān)注 OpenAI 的 GPT-4 及其前代 GPT-3.5。
研究團(tuán)隊(duì),GPT-4 雖然在標(biāo)準(zhǔn)基準(zhǔn)測(cè)試中比 GPT-3.5 更加可靠,但容易受到“越獄”提示(繞過模型安全措施)影響。GPT-4 可能會(huì)根據(jù)這些“越獄”提示,生成有害內(nèi)容。
論文中強(qiáng)調(diào) GPT-4 更容易受到惡意“越獄”系統(tǒng)或用戶提示影響,會(huì)準(zhǔn)確地遵循(誤導(dǎo)性)指令,生成不良內(nèi)容,微軟強(qiáng)調(diào)這個(gè)潛在漏洞不會(huì)影響當(dāng)前面向客戶的服務(wù)。
IT之家在此附上微軟官方論文地址,感興趣的用戶可以深入閱讀。
廣告聲明:文內(nèi)含有的對(duì)外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時(shí)間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。