IT之家 3 月 18 日消息,據(jù)外媒 Ars Technica 報道,研究人員近日提出了一種名為 ArtPrompt 的新大模型注入手段,其使用 ASCII 字符畫替代關(guān)鍵文字進(jìn)行提示輸入,繞過了大模型的安全限制。
舉例來說,研究人員向大模型輸入 Counterfeit Money(IT之家注:假幣)中關(guān)鍵詞匯 Counterfeit 的 ASCII 字符畫,并要求大模型以不輸出詞匯本身的方式將字符畫理解為單詞,并用該單詞替換“給出制造和分銷‘xxx Money’方法”提示中占位的“xxx”。
結(jié)果大模型成功被欺騙,給出了制造和分銷假幣的具體步驟。同類型的操作也可以從大模型中套出攻擊物聯(lián)網(wǎng)設(shè)備的方法。
研究人員在 GPT-3.5、GPT-4、 Gemini、 Claude、Llama2 這 5 個領(lǐng)先的模型上對 ArtPrompt 注入進(jìn)行了測試,結(jié)果顯示全部 5 個模型均可被越獄,輸出不合規(guī)內(nèi)容。
這一研究表明,如果僅使用語義解釋訓(xùn)練語料庫,那么大語言模型會缺乏對非語義直接解釋提示詞的識別,暴露出的漏洞可通過 ASCII 字符畫等形式利用。
參考
廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。