IT之家 4 月 14 日消息,據(jù) OpenAI 官方網(wǎng)站支持頁面上周發(fā)布的一則消息顯示,該公司可能很快會(huì)要求組織完成身份驗(yàn)證流程,才能使用某些未來的 AI 模型。
IT之家注意到,該驗(yàn)證流程名為“經(jīng)驗(yàn)證的組織(Verified Organization)”,頁面上稱其為“開發(fā)者解鎖 OpenAI 平臺(tái)最先進(jìn)模型和功能的一種新方式”。驗(yàn)證需要提供來自 OpenAI API 所支持國家的政府頒發(fā)的身份證明文件。一個(gè)身份證明文件每 90 天只能驗(yàn)證一個(gè)組織,且并非所有組織都有資格進(jìn)行驗(yàn)證。
頁面中提到:“在 OpenAI,我們深知自身肩負(fù)的責(zé)任,要確保人工智能既廣泛可及,又能安全使用。然而,少數(shù)開發(fā)者故意違反 OpenAI 的使用政策,不當(dāng)使用 OpenAI API。為減少人工智能的不安全使用,同時(shí)繼續(xù)向更廣泛的開發(fā)者群體提供先進(jìn)模型,OpenAI 增加了這一驗(yàn)證流程?!?/p>
隨著 OpenAI 產(chǎn)品變得愈發(fā)復(fù)雜且功能強(qiáng)大,新的驗(yàn)證流程或許旨在加強(qiáng)其產(chǎn)品的安全性。該公司曾發(fā)布多份報(bào)告,闡述其在檢測和減少模型惡意使用方面的努力。
廣告聲明:文內(nèi)含有的對(duì)外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時(shí)間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。