設(shè)置
  • 日夜間
    隨系統(tǒng)
    淺色
    深色
  • 主題色

91% 企業(yè)認(rèn)為 Deepfake 類(lèi)型詐騙威脅日益嚴(yán)重

2023/4/28 10:58:36 來(lái)源:IT之家 作者:故淵 責(zé)編:故淵

IT之家 4 月 28 日消息,根據(jù)身份認(rèn)證專(zhuān)業(yè)機(jī)構(gòu) Regula 公布的最新報(bào)告,Deepfake 類(lèi)型的欺詐案件正快速上升,29% 的企業(yè)遭受過(guò)這種類(lèi)型的欺詐,91% 的受訪企業(yè)認(rèn)為該威脅已日益嚴(yán)重。

Regula 首席技術(shù)官 Ihar Kliashchou 在報(bào)告中進(jìn)行說(shuō)明,IT之家翻譯如下:

普通人類(lèi)在沒(méi)有經(jīng)過(guò)專(zhuān)門(mén)的訓(xùn)練之前,很難辨別 AI 生成的虛假身份。

神經(jīng)網(wǎng)絡(luò)可能有助于檢測(cè) Deepfakes,但應(yīng)該配合檢測(cè)面部活體、光學(xué)可變安全元素等側(cè)重于物理和動(dòng)態(tài)參數(shù)的反欺詐措施,實(shí)現(xiàn)更好的監(jiān)測(cè)效果。

除了 Deepfakes 之外,調(diào)查顯示全球 46% 的組織在過(guò)去一年中經(jīng)歷過(guò)合成身份欺詐。92% 的銀行業(yè)公司將合成欺詐視為真正的威脅,近一半 (49%) 的公司最近遇到過(guò)這種騙局。

Deepfake 技術(shù)又稱(chēng)深度偽造,是英文“deep learning”和“fake”的混成詞,專(zhuān)指基于人工智能的人體圖像合成技術(shù)的應(yīng)用。此技術(shù)可將已有的圖像或視頻疊加至目標(biāo)圖像或視頻上。偽造面部表情并將其呈現(xiàn)至目標(biāo)視頻的技術(shù)在 2016 年出現(xiàn),此技術(shù)允許近實(shí)時(shí)地偽造文書(shū)現(xiàn)有 2D 視頻中的面部表情。

詳細(xì)報(bào)告可以訪問(wèn):《The State of Identity Verification in 2023

廣告聲明:文內(nèi)含有的對(duì)外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時(shí)間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。

相關(guān)文章

關(guān)鍵詞:deepfake

軟媒旗下網(wǎng)站: IT之家 最會(huì)買(mǎi) - 返利返現(xiàn)優(yōu)惠券 iPhone之家 Win7之家 Win10之家 Win11之家

軟媒旗下軟件: 軟媒手機(jī)APP應(yīng)用 魔方 最會(huì)買(mǎi) 要知