IT之家 5 月 28 日消息,據(jù)紐約時報報道,近日,一名律師在一起法庭案件中,依賴聊天機器人 ChatGPT 進行法律文獻檢索(legal research),導致提交了錯誤的信息。這一事件揭示了人工智能在法律領域的潛在風險,包括誤傳錯誤信息。
該案件涉及一名男子因個人受傷而起訴一家航空公司,原告的法律團隊提交了一份簡短的訴訟文件,引用了幾個先前的法院案例來支持他們的論點,試圖為他們的訴求建立一個法律先例。然而,航空公司的律師發(fā)現(xiàn),其中一些引用的案例并不存在,并立即通知了主審法官。
凱文?卡斯特爾法官對這種情況表示驚訝,稱其為“前所未有”,并下令要求原告的法律團隊作出解釋。
原告律師之一史蒂文?施瓦茨承認自己使用了 ChatGPT 來搜索類似的法律先例,在一份書面聲明中,施瓦茨深表遺憾,他說:“我以前從未使用過人工智能進行法律文獻檢索,也不知道它的內(nèi)容可能是虛假的?!?/p>
提交給法院的文件附有施瓦茨和 ChatGPT 之間的對話截圖,在對話中施瓦茨詢問了一個特定的案例:Varghese v. China Southern Airlines Co Ltd 是否真實。ChatGPT 回答說是真實的,并表示該案例可以在法律參考數(shù)據(jù)庫如 LexisNexis 和 Westlaw 中找到。然而,后續(xù)的調(diào)查顯示,該案例并不存在,進一步調(diào)查顯示,ChatGPT 捏造了 6 個不存在的案例。
鑒于這一事件,涉案的兩名律師,來自 Levidow, Levidow & Oberman 律師事務所的彼得?洛杜卡和史蒂文?施瓦茨將于 6 月 8 日出席一個紀律聽證會,解釋他們的行為。IT之家注意到,這一事件引發(fā)了法律界對于人工智能工具在法律研究中適當使用的討論,以及制定全面指導方針以防止類似情況發(fā)生的需求。
廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結果僅供參考,IT之家所有文章均包含本聲明。