設置
  • 日夜間
    隨系統(tǒng)
    淺色
    深色
  • 主題色

研究發(fā)現(xiàn),OpenAI 的 GPT-4o 道德推理能力勝過人類專家

2024/6/24 8:27:01 來源:IT之家 作者:清源 責編:清源

IT之家 6 月 24 日消息,近期的一項研究表明,OpenAI 最新的聊天機器人 GPT-4o 能夠提供道德方面的解釋和建議,且質(zhì)量優(yōu)于“公認的”道德專家所提供的建議。

據(jù) The Decoder 當?shù)貢r間周六報道,美國北卡羅萊納大學教堂山分校和艾倫 AI 研究所的研究人員進行了兩項研究,將 GPT 模型與人類的道德推理能力進行比較,以探討大語言模型是否可被視為“道德專家”。

IT之家匯總研究內(nèi)容如下:

研究一

501 名美國成年人對比了 GPT-3.5-turbo 模型和其他人類參與者的道德解釋。結果表明,人們認為 GPT 的解釋比人類參與者的解釋更符合道德、更值得信賴、更周到

評估者也認為人工智能的評估比其他人更可靠。雖然差異很小,但關鍵發(fā)現(xiàn)是 AI 可以匹配甚至超越人類水平的道德推理。

研究二

將 OpenAI 最新的 GPT-4o 模型生成的建議與《紐約時報》“倫理學家”專欄中著名倫理學家 Kwame Anthony Appiah 的建議進行了比較。900 名參與者對 50 個“倫理困境”的建議質(zhì)量進行了評分。

結果表明,GPT-4o 在“幾乎每個方面”都勝過人類專家。人們認為 AI 生成的建議在道德上更正確、更值得信賴、更周到、更準確。只有在感知細微差別方面,人工智能和人類專家之間沒有顯著差異。

研究人員認為,這些結果表明 AI 可以通過“比較道德圖靈測試”(cMTT)。而文本分析顯示,GPT-4o 在提供建議時使用的道德和積極語言比人類專家更多。這可以部分解釋為什么 AI 的建議評分更高 —— 但不是唯一因素。

需要注意的是,這項研究僅僅針對美國參與者進行,后續(xù)仍需進一步研究人們?nèi)绾慰创?AI 生成的道德推理的文化差異。

論文地址:https://osf.io/preprints/psyarxiv/w7236

廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結果僅供參考,IT之家所有文章均包含本聲明。

相關文章

關鍵詞:GPT4o,OpenAI,生成式AI

軟媒旗下網(wǎng)站: IT之家 最會買 - 返利返現(xiàn)優(yōu)惠券 iPhone之家 Win7之家 Win10之家 Win11之家

軟媒旗下軟件: 軟媒手機APP應用 魔方 最會買 要知