IT之家 12 月 5 日消息,谷歌 DeepMind 研究人員上周發(fā)現(xiàn),反復要求 OpenAI 的 ChatGPT 重復某個單詞可能會無意中泄露其訓練數(shù)據(jù)中的私人個人信息。而現(xiàn)在這款聊天機器人似乎已經(jīng)開始拒絕重復某個單詞,而之前根據(jù)其服務條款這是被允許的。
DeepMind 研究人員此前通過要求 ChatGPT 無限期地重復“你好”,發(fā)現(xiàn)該模型最終會泄露用戶的電子郵件地址、出生日期和電話號碼。在現(xiàn)在對其進行類似的測試發(fā)現(xiàn),該聊天機器人會給出警告說這種行為“可能違反我們的內容政策或服務條款”。
然而,仔細檢查 OpenAI 的服務條款后發(fā)現(xiàn),并沒有明確禁止用戶讓聊天機器人重復單詞,條款只禁止“自動化或程序化”地從其服務中提取數(shù)據(jù)。
IT之家注意到,在使用條款頁面中,OpenAI 寫道:
除非通過 API 允許,否則您不得使用任何自動化或程序化方法從服務中提取數(shù)據(jù)或輸出,包括抓取、網(wǎng)絡收割或網(wǎng)絡數(shù)據(jù)提取。
盡管如此,在測試中并未觸發(fā) ChatGPT 泄露任何數(shù)據(jù)。OpenAI 拒絕對這種行為是否違反其政策發(fā)表評論。
廣告聲明:文內含有的對外跳轉鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結果僅供參考,IT之家所有文章均包含本聲明。