設(shè)置
  • 日夜間
    隨系統(tǒng)
    淺色
    深色
  • 主題色

人臉識別這么好糊弄,我的錢會不會被盜刷?

果殼 2022/11/1 11:46:21 責(zé)編:遠生

AI 換臉,曾經(jīng)只會困擾名人,如今卻會直接影響到我們普通人的財產(chǎn)安全

偽造人臉盜號、轉(zhuǎn)賬的新聞不在少數(shù),今年 8 月,就有兩名犯罪嫌疑人因使用手機軟件制作人臉識別動態(tài)視頻,并“偽裝”登錄他人的網(wǎng)絡(luò)賬號盜取資金而被警方抓獲。

根據(jù)新聞報道和法院裁定書,這類案件的非法獲利幾千至幾十萬元不等,全國各地都已經(jīng)發(fā)生了許多類似案件。甚至有不法分子利用銀行的人臉識別授權(quán)功能,再通過木馬病毒攔截短信驗證碼盜取存款,涉案總金額超 200 萬元。

騙不過人,可以騙攝像頭啊!

AI 換臉,術(shù)語是 Deepfake(深度偽造),是把 Deep learning(深度學(xué)習(xí))和 Fake(偽造)組合在一起,用 AI 把一個人的人臉換到另一個人的照片 / 視頻當(dāng)中的技術(shù)。

圍繞 AI 換臉有著相當(dāng)多的“犯罪應(yīng)用”,包括且不限于:

· 攻擊刷臉驗證:直接從支付寶、微信錢包、甚至貸款軟件里,偽造他人信息套現(xiàn);

? 制作虛假色情圖片 / 視頻:詐騙、敲詐勒索或損壞他人名譽;

? 實時換臉通話:盜號并詐騙號主親友;

? 制造虛假信息:蒙騙政客、法官、投資者等;

? 發(fā)布假新聞:煽動民眾、引起混亂恐慌、打擊商業(yè)對手、制造股市動蕩等。

在這當(dāng)中,刷臉驗證與普通人關(guān)系最大,因為它驗證的是一個人的身份,一旦這個信息被突破,你的資產(chǎn)安全與信息安全都會受到威脅,很容易在網(wǎng)絡(luò)上“裸奔”。

除了 Deepfake 技術(shù),還有相當(dāng)多的方法可以干擾人臉識別認證,比如造一個“騙 AI 眼鏡”:

不好意思放錯了,是這個:

圖源:Accessorize to a crime: Real and stealthy attacks onstate-of-the-art face recognition.

在一篇圖像識別領(lǐng)域的經(jīng)典文獻中,研究者通過數(shù)學(xué)運算設(shè)計了一種特定的“眼鏡”(中圖),戴上就可以讓一個人(左圖)被 AI 人臉識別認成另外一個人(右圖)。

另一種騙檢測設(shè)備的方式是 3D 面具,比如下面這些圖:

圖源:businessinsider & kneron

這是 Kneron 這家公司的產(chǎn)品,他們在 2019 年底聲明,對于微信、支付寶的刷臉支付和火車站的人臉識別閘機,都可以戴著面具偽裝成別人通過。

AI 換臉,特別在哪?

對普通人來說,上述技術(shù)還不必過于擔(dān)心,因為它們有著各種各樣的缺陷,比如“騙 AI 眼鏡”主要是針對靜態(tài)圖片識別,無法突破動態(tài)人臉識別,而“人臉面具”需要定制、價值不菲且制作工藝復(fù)雜,用在普通人身上性價比并不高。

AI 改變了一切,簡直把造假成本降到了“白菜價”。

視頻越短、像素越低、實時性要求(需要實時換臉還是可以制作完視頻再發(fā)出)越低、欺騙對象警惕性越低、可用素材(就是目標人物的多角度照片、視頻)越多,造假成本就越低。

舉個例子,同樣是一個人說話,AI 換成另一個人的臉,直接上手就能用的 AI 模型配合 NVIDIA GTX1080 Ti 可以做到這樣,動作還算流暢,但“塑膠感”嚴重,一眼就能看出不是真人的視頻。

而經(jīng)過 NVIDIA RTX 3090 Ti 長時間(數(shù)小時甚至數(shù)天)訓(xùn)練的 AI 模型,可以做出相當(dāng)以假亂真的效果。可能只有在認真反復(fù)的觀看下,才會發(fā)現(xiàn):誒?剛剛這個人額頭的皺紋是不是在閃?

針對“人臉識別”,deepfake 便宜很多;因為攻破“人臉識別”不需要最“精細”,最費工夫的 Deepfake 技術(shù),只需要一個清晰度一般的幾秒鐘的視頻。

而提高成本后制作的更精細的視頻,則可以用于其他的詐騙用途。并且這種造假是一種“一本萬利”的買賣,在設(shè)備與算法齊全后,就可以根據(jù)不同的情境與需求,批量生產(chǎn)假視頻。

普通人能怎么辦

當(dāng) AI 換臉進入普通人的生活,我們能做些什么來應(yīng)對跟它相關(guān)的不法行為呢?

“騙”機器的換臉咋辦?

針對刷臉驗證身份這一類場景,偽造的視頻需要通過的是人臉識別系統(tǒng)的自動驗證,或者說“騙過”機器。所需的視頻時間短(幾秒鐘以內(nèi))、動態(tài)簡單(只有少量固定動作、甚至有些系統(tǒng)僅僅識別圖片)、沒有實時要求,從技術(shù)上來講是相對簡單的,識別端也不在真人的掌控之中。

對于這類案件,普通人能做的就是平時守護好自己的個人信息(包括人臉信息),并且盡量采用多種方式結(jié)合的身份驗證

密碼、指紋、手機號,能選的驗證方式都選上,雖然自己也會麻煩點,但是相當(dāng)于多幾道保險,全部被同時攻破的可能性還是小很多的。

如果不幸被盜刷,立刻報警,配合警察追蹤不法分子、追回違法所得,同時上報平臺,讓平臺獲取更多的信息來修補漏洞、升級系統(tǒng)。

“騙”真人的換臉,咋辦?

欺騙真人的 AI 換臉,比如面對個人的勒索、詐騙,還有面對大眾的虛假新聞,則顯得更加隱蔽和多樣化。

從根本上來說,有了 AI 換臉技術(shù)以后,普通人面對圖像信息都應(yīng)該多留個心眼,不能一味相信“眼見為實”。

如果被人用偽造的裸照、不雅視頻勒索,不要回應(yīng),直接報警。

這類犯罪的 AI 換臉目標就是受害人,所以只要看到視頻的人知道自己沒有拍過此類照片、視頻,就可以判斷視頻是偽造的。最大的難點反而在于不要自亂陣腳、不要因為害怕而向不法分子交付錢財。

如果被人用偽造的視頻詐騙,比如騙子盜了你朋友的號,用 AI 換臉跟你實時通話借錢。這個時候,多渠道驗證就很重要,各個社交平臺、郵箱、短信、電話,不要因為對方看起來很著急就想都不想地打錢。

在觀看網(wǎng)上的新聞、視頻時,多查查新聞來源是否可靠。尤其是什么拜登講話,馬斯克講話,這些名人們可用于機器學(xué)習(xí)的訓(xùn)練集太多了,仿造高精度視頻很容易。

這張圖里的馬斯克是假的哈…… | 圖源:VR 陀螺

識別 Deepfake 的億些小技巧

還有一些小訣竅,可以幫助你更好地判斷一個視頻是不是 AI 換臉偽造的(如果開了十級美顏,這些方法就不是很可靠了。畢竟,十級美顏也可以被看作一種 AI 換臉呢):

關(guān)注臉型

多看看臉的大小、形狀、下顎線位置,尤其是動起來的樣子,和本人是否一致。

關(guān)注皺紋

畢竟每個人的皮膚情況和皺紋走向都是不一樣的,AI 模型僅憑一些照片(而且不一定是最近的照片),生成的皺紋很難跟本人一模一樣。

一個人皮膚過于光滑、皺紋過多、或者全臉皮膚狀況不一致(比如額頭很多皺紋、臉頰卻很光滑)、一段視頻中年齡感不一致(一會兒看著年輕一會兒看著年長),都可能是偽造視頻的特征。

關(guān)注背景

看看這個背景是不是這個人平時用的背景、背景和人的銜接是不是自然、背景本身有沒有變形等等。

關(guān)注光影

AI 換臉生成的視頻并不遵循現(xiàn)實世界的物理光影規(guī)則,因此面部的陰影眼鏡的反光等等,都可能出賣偽造的視頻。

關(guān)注五官的位置和大小

AI 偽造的視頻可能會出現(xiàn)五官忽大忽小、位置飄移的現(xiàn)象。

關(guān)注獨特的面部特征

如果這個人臉上有痣、文身、疤痕,它們看起來都在正確的位置嗎?

關(guān)注頭發(fā)

發(fā)量、發(fā)際線看起來真實嗎?頭發(fā)邊緣看起來自然嗎?

關(guān)注動態(tài)

比如眨眼的頻率和方式是否正常、眉毛和嘴的運動是否像這個人平時的樣子、轉(zhuǎn)頭(尤其是轉(zhuǎn)到 90 度的側(cè)面)的時候有無變形、臉部被遮擋的時候遮擋物是否清晰可見,都是一些辨別 AI 偽造視頻的要點。

一些容易露餡的動作 | 圖源:metaphysic & VFXChris Ume

除了以上的理論知識,你還可以試著去這個網(wǎng)站(https://detectfakes.media.mit.edu/)實操做題,提升一下自己鑒別假視頻的能力,說不定還能幫科學(xué)家對抗使用 AI 換臉的不法行為。

只要還有很高的潛在非法收益,不法分子就會不惜加大投入,制作更精美、更“真實”的虛假視頻,去欺騙普通人、大公司、大機構(gòu)乃至政府。

所以,除了個人能做到的事情外,其實也更應(yīng)該由政府、公司從政策法規(guī)和技術(shù)建設(shè)上不斷完善和加強,讓技術(shù)的進步真正造福于人類,而不是淪為傷害他人的犯罪工具

參考資料

  • [1]http://epaper.ynet.com/html/2022-04/14/content_396257.htm?div=-1

  • 驚堂木 | 眼見為實?“變臉”盜刷支付寶!已有人中招... (2022). Retrieved 25 October 2022, from https://mp.weixin.qq.com/ s / qNEaUN-A_83OL53vHvbWww

  • [2]https://www.theverge.com/2019/12/13/21020575/china-facial-recognition-terminals-fooled-3d-mask-kneron-research-fallibility

  • [3]Kneron's Edge AI & Facial Recognition Survey Pushes Forward Industry | Kneron – Full Stack Edge AI. (2020). Retrieved 25 October 2022, from https://www.kneron.com/news/blog/85/

  • [4]All it takes to fool facial recognition at airports and border crossings is a printed mask, researchers found. (2022). Retrieved 25 October 2022, from https://www.businessinsider.com/facial-recognition-fooled-with-mask-kneron-tests-2019-12

  • [5]To Uncover a Deepfake Video Call, Ask the Caller to Turn Sideways - Metaphysic.ai. (2022). Retrieved 25 October 2022, from https://metaphysic.ai/to-uncover-a-deepfake-video-call-ask-the-caller-to-turn-sideways/

  • [6]Detecting deepfakes by looking closely reveals a way to protect against them. (2022). Retrieved 25 October 2022, from https://phys.org/news/2019-06-deepfakes-reveals.html

  • [7]Europol report finds deepfake technology could become staple tool for organised crime | Europol. (2022). Retrieved 25 October 2022, from https://www.europol.europa.eu/media-press/newsroom/news/europol-report-finds-deepfake-technology-could-become-staple-tool-for-organised-crime

  • [8]Project Overview ? Detect DeepFakes: How to counteract misinformation created by AI – MIT Media Lab. (2022). Retrieved 25 October 2022, from https://www.media.mit.edu/projects/detect-fakes/overview/

  • [9]Sharif, M., Bhagavatula, S., Bauer, L., & Reiter, M. K. (2016, October). Accessorize to a crime: Real and stealthy attacks on state-of-the-art face recognition. In Proceedings of the 2016 acm sigsac conference on computer and communications security (pp. 1528-1540).

  • [10]Thies, J., Zollh?fer, M., Theobalt, C., Stamminger, M., & Nie?ner, M. (2018). Headon: Real-time reenactment of human portrait videos. ACM Transactions on Graphics (TOG), 37(4), 1-13.

  • [11]Li, Y., Yang, X., Wu, B., & Lyu, S. (2019). Hiding faces in plain sight: Disrupting AI face synthesis with adversarial perturbations. arXiv preprint arXiv:1906.09288.

  • [12]Westerlund, M. (2019). The emergence of deepfake technology: A review. Technology Innovation Management Review, 9(11).

  • [13]Mirsky, Y., & Lee, W. (2021). The creation and detection of deepfakes: A survey. ACM Computing Surveys (CSUR), 54(1), 1-41.

  • [14]Li, C., Wang, L., Ji, S., Zhang, X., Xi, Z., Guo, S., & Wang, T. (2022). Seeing is living? rethinking the security of facial liveness verification in the deepfake era. CoRR abs/2202.10673.

  • [15]Nguyen, T. T., Nguyen, Q. V. H., Nguyen, D. T., Nguyen, D. T., Huynh-The, T., Nahavandi, S., ... & Nguyen, C. M. (2022). Deep learning for deepfakes creation and detection: A survey. Computer Vision and Image Understanding, 223, 103525.

  • [16] 警惕!偽造“人臉”盜取賬號,漳州兩男子被抓_騰訊新聞. (2022). Retrieved 25 October 2022, from https://new.qq.com/ rain / a/20220830A068U500

本文來自微信公眾號:果殼 (ID:Guokr42),作者:羅碗,編輯:Emeria、游識猷

廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。

相關(guān)文章

關(guān)鍵詞:人臉識別

軟媒旗下網(wǎng)站: IT之家 最會買 - 返利返現(xiàn)優(yōu)惠券 iPhone之家 Win7之家 Win10之家 Win11之家

軟媒旗下軟件: 軟媒手機APP應(yīng)用 魔方 最會買 要知