設(shè)置
  • 日夜間
    隨系統(tǒng)
    淺色
    深色
  • 主題色

AI 打敗 AI:谷歌研究團(tuán)隊(duì)利用 GPT-4 擊敗 AI-Guardian 審核系統(tǒng)

2023/8/2 10:30:05 來源:IT之家 作者:漾仔(實(shí)習(xí)) 責(zé)編:汪淼

IT之家 8 月 2 日消息,谷歌研究團(tuán)隊(duì)正在進(jìn)行一項(xiàng)實(shí)驗(yàn),他們使用 OpenAI 的 GPT-4 來攻破其他 AI 模型的安全防護(hù)措施,該團(tuán)隊(duì)目前已經(jīng)攻破 AI-Guardian 審核系統(tǒng),并分享了相關(guān)技術(shù)細(xì)節(jié)。

IT之家經(jīng)過查詢得知,AI-Guardian 是一種 AI 審核系統(tǒng),能夠檢測圖片中是否存在不當(dāng)內(nèi)容,及圖片本身是否被其他 AI 修改過,若檢測到圖片存在上述跡象,便會(huì)提示管理員前來處理。

谷歌 Deep Mind 的研究人員 Nicholas Carlini 在一篇題為“AI-Guardian 的 LLM 輔助開發(fā)”的論文中,探討了使用 GPT-4“設(shè)計(jì)攻擊方法、撰寫攻擊原理”的方案,并將這些方案用于欺騙 AI-Guardian 的防御機(jī)制。

▲ 圖源 谷歌研究團(tuán)隊(duì)

據(jù)悉,GPT-4 會(huì)發(fā)出一系列錯(cuò)誤的腳本和解釋來欺騙 AI-Guardian ,論文中提到,GPT-4 可以讓 AI-Guardian 認(rèn)為“某人拿著槍的照片”是“某人拿著無害蘋果的照片”,從而讓 AI-Guardian 直接放行相關(guān)圖片輸入源。谷歌研究團(tuán)隊(duì)表示,通過 GPT-4 的幫助,他們成功地“破解”了 AI-Guardian 的防御,使該模型的精確值從 98% 的降低到僅 8%。

目前相關(guān)技術(shù)文檔已經(jīng)發(fā)布在 ArXiv 中,有興趣的小伙伴們可以前往了解,不過 AI-Guardian 的開發(fā)者也同時(shí)指出,谷歌研究團(tuán)隊(duì)的這種攻擊方法將在未來的 AI-Guardian 版本中不再可用,考慮到別的模型也會(huì)隨之跟進(jìn),因此當(dāng)下谷歌的這套攻擊方案更多在日后只能用于參考性質(zhì)。

廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時(shí)間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。

相關(guān)文章

關(guān)鍵詞:GPT4,AIGuardian

軟媒旗下網(wǎng)站: IT之家 最會(huì)買 - 返利返現(xiàn)優(yōu)惠券 iPhone之家 Win7之家 Win10之家 Win11之家

軟媒旗下軟件: 軟媒手機(jī)APP應(yīng)用 魔方 最會(huì)買 要知