IT之家 12 月 27 日消息,安全公司 Abnormal 日前發(fā)布報(bào)告,聲稱如今“AI 釣魚郵件”愈發(fā)泛濫,許多黑客利用各種模型批量創(chuàng)建釣魚郵件,之后使用腳本群發(fā)相關(guān)郵件,從而實(shí)施“高效率”網(wǎng)絡(luò)詐騙活動(dòng)。
該公司研究人員舉例 WormGPT、FraudGPT 等“專為網(wǎng)絡(luò)犯罪而生”的惡意 AI 工具,聲稱當(dāng)下黑客已經(jīng)將生成式 AI 融入到攻擊策略中,因此用戶也需要“以相同的方式做出反擊”,利用 AI 過濾“可能由 AI 創(chuàng)建的釣魚郵件”。
IT之家查詢安全報(bào)告得知,傳統(tǒng)的釣魚郵件通常使用相同的域名,正文擁有固定模板格式,整體郵件內(nèi)容和風(fēng)格較為統(tǒng)一,因此相當(dāng)容易被安全軟件標(biāo)記攔截。而黑客利用 AI 生成的釣魚郵件乍眼看“相當(dāng)獨(dú)特”,甚至“每一篇都不一樣”,因此難以被傳統(tǒng)安全軟件乃至人類所察覺。
據(jù)悉,研究人員在報(bào)告中介紹了一款名為 Giant Language Model Test Room(GLTR)的 AI 檢測(cè)工具,該工具利用了“相關(guān)釣魚郵件內(nèi)容主要采用‘預(yù)測(cè)式’調(diào)用‘特定高概率單詞’”的特點(diǎn),從而精確識(shí)別 AI 釣魚郵件。
研究人員聲稱,即使黑客讓 AI“使用更為正式的措辭”創(chuàng)建郵件,但 GLTR 工具依然可以判斷郵件中哪些部分“高概率由人工智能生成”。不過報(bào)告中同時(shí)指出,相關(guān)檢測(cè)手法存在“誤殺率”,100% 判斷郵件內(nèi)容是否由 AI 創(chuàng)建“幾乎是不可能的”。
研究人員同時(shí)提到,AI 編寫的內(nèi)容中出現(xiàn)“語法和拼寫錯(cuò)誤”的概率相對(duì)人類反而更少,因此受害者更容易上當(dāng),當(dāng)下“使用 AI 對(duì)付 AI”的方案反而更加有效。
相關(guān)閱讀:
廣告聲明:文內(nèi)含有的對(duì)外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時(shí)間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。