9 月 20 日消息,美國人工智能研究公司 OpenAI 宣布推出“紅隊網(wǎng)絡(luò)”(Red Teaming Network),并邀請各領(lǐng)域?qū)<壹尤肫洹凹t隊網(wǎng)絡(luò)”,以提高其人工智能(AI)模型的安全性。
OpenAI 的這一舉措旨在深化和擴大其與外部專家的合作,以確保其人工智能模型的可靠性和安全性。簽約的專家將通過協(xié)助評估和減輕模型風險,在增強 OpenAI 人工智能系統(tǒng)的穩(wěn)健性方面發(fā)揮關(guān)鍵作用。
盡管 OpenAI 之前通過漏洞賞金計劃和研究人員訪問計劃與外部專家合作,但新推出的“紅隊網(wǎng)絡(luò)”將這些努力正式化。
OpenAI 表示,“紅隊網(wǎng)絡(luò)”是一個由經(jīng)驗豐富且值得信賴的專家組成的社區(qū),可以幫助公司更廣泛地進行風險評估,而不是在主要模型部署之前進行一次性參與和選擇過程。
據(jù)報道,“紅隊”在識別人工智能系統(tǒng)中的偏見和評估安全過濾器方面發(fā)揮著至關(guān)重要的作用,已經(jīng)成為人工智能模型開發(fā)過程中的關(guān)鍵一步,尤其是在生成式技術(shù)得到更廣泛采用的情況下。
OpenAI 向不同領(lǐng)域的專家發(fā)出邀請,包括具有語言學、生物識別、金融和醫(yī)療保健背景的專家。該公司強調(diào)了各種專業(yè)知識對人工智能評估的重要性,包括但不限于認知科學、法律、網(wǎng)絡(luò)安全、經(jīng)濟學和醫(yī)療保健等領(lǐng)域。
廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。