IT之家 2 月 17 日消息,科技媒體 The Decoder 昨日(2 月 16 日)發(fā)布博文,報道稱最新研究表示,OpenAI ChatGPT 通過了治療師領域的圖靈測試,結果顯示人們難以區(qū)分 ChatGPT 和人類治療師提供的治療建議,而且人工智能的回答通常被認為更具同理心。
IT之家注:研究人員應用圖靈測試的概念,要求 830 名參與者區(qū)分 ChatGPT 和人類治療師的回復。結果顯示,參與者識別正確率略高于隨機猜測:正確識別出人類治療師回復的概率為 56.1%,正確識別 ChatGPT 回復的概率為 51.2%。
研究稱 ChatGPT 的回復在治療聯盟、同理心和文化勝任力等方面的得分高于人類專家,其回復通常更長,語氣更積極,使用更多名詞和形容詞,讓其顯得更詳細、更具同理心。
研究揭示了一種偏見:當參與者認為他們閱讀的是人工智能生成的回復時,無論實際作者是誰,他們都會給出較低評分。反之,當人工智能生成的回復被誤認為是人類治療師所寫時,則會獲得最高評分。
這并非首個證明人工智能在咨詢角色中具有潛力的研究。墨爾本大學和西澳大利亞大學的研究發(fā)現,ChatGPT 在社會困境方面提供的建議比人類專欄作家更均衡、全面和更具同理心,偏好率在 70% 到 85% 之間,盡管對人工智能回復的評價更高,但大多數參與者仍然表示更喜歡人類顧問。
廣告聲明:文內含有的對外跳轉鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結果僅供參考,IT之家所有文章均包含本聲明。