人臉識別這么好糊弄,我的錢會(huì)不會(huì)被盜刷?
AI換臉,就是用AI把一個(gè)人的人臉換到另一個(gè)人的照片/視頻當(dāng)中。這項(xiàng)技術(shù)有著相當(dāng)多的“犯罪應(yīng)用”, 直接影響到了我們普通人的財(cái)產(chǎn)安全,本篇文章就來講講AI換臉這項(xiàng)技術(shù),以及我們該如何應(yīng)對AI換臉?biāo)纬傻牟环ㄐ袨?,快來看看吧?/p>
AI換臉,曾經(jīng)只會(huì)困擾名人,如今卻會(huì)直接影響到我們普通人的財(cái)產(chǎn)安全。
偽造人臉盜號、轉(zhuǎn)賬的新聞不在少數(shù),今年8月,就有兩名犯罪嫌疑人因使用手機(jī)軟件制作人臉識別動(dòng)態(tài)視頻,并“偽裝”登錄他人的網(wǎng)絡(luò)賬號盜取資金而被警方抓獲。
另一則新聞提到,由于制作簡單,一個(gè)視頻價(jià)格僅為2至10元,
“客戶”往往是成百上千購買,牟利空間巨大 | 圖源:北京青年報(bào)
根據(jù)新聞報(bào)道和法院裁定書,這類案件的非法獲利幾千至幾十萬元不等,全國各地都已經(jīng)發(fā)生了許多類似案件。甚至有不法分子利用銀行的人臉識別授權(quán)功能,再通過木馬病毒攔截短信驗(yàn)證碼盜取存款,涉案總金額超200萬元。
一、騙不過人,可以騙攝像頭??!
AI換臉,術(shù)語是Deepfake(深度偽造),是把Deep learning(深度學(xué)習(xí))和Fake(偽造)組合在一起,用AI把一個(gè)人的人臉換到另一個(gè)人的照片/視頻當(dāng)中的技術(shù)。
圍繞AI換臉有著相當(dāng)多的“犯罪應(yīng)用”,包括且不限于:
- 攻擊刷臉驗(yàn)證:直接從支付寶、微信錢包、甚至貸款軟件里,偽造他人信息套現(xiàn);
- 制作虛假色情圖片/視頻:詐騙、敲詐勒索或損壞他人名譽(yù);
- 實(shí)時(shí)換臉通話:盜號并詐騙號主親友;
- 制造虛假信息:蒙騙政客、法官、投資者等;
- 發(fā)布假新聞:煽動(dòng)民眾、引起混亂恐慌、打擊商業(yè)對手、制造股市動(dòng)蕩等。
在這當(dāng)中,刷臉驗(yàn)證與普通人關(guān)系最大,因?yàn)樗?yàn)證的是一個(gè)人的身份,一旦這個(gè)信息被突破,你的資產(chǎn)安全與信息安全都會(huì)受到威脅,很容易在網(wǎng)絡(luò)上“裸奔”。
除了Deepfake技術(shù),還有相當(dāng)多的方法可以干擾人臉識別認(rèn)證,比如造一個(gè)“騙AI眼鏡”:
圖源:Accessorize to a crime: Real and stealthy attacks on
state-of-the-art face recognition.
在一篇圖像識別領(lǐng)域的經(jīng)典文獻(xiàn)中,研究者通過數(shù)學(xué)運(yùn)算設(shè)計(jì)了一種特定的“眼鏡”(中圖),戴上就可以讓一個(gè)人(左圖)被AI人臉識別認(rèn)成另外一個(gè)人(右圖)。
另一種騙檢測設(shè)備的方式是3D面具,比如下面這些圖:
圖源:businessinsider & kneron
這是Kneron這家公司的產(chǎn)品,他們在2019年底聲明,對于微信、支付寶的刷臉支付和火車站的人臉識別閘機(jī),都可以戴著面具偽裝成別人通過。
二、AI換臉,特別在哪?
對普通人來說,上述技術(shù)還不必過于擔(dān)心,因?yàn)樗鼈冇兄?strong>各種各樣的缺陷,比如“騙AI眼鏡”主要是針對靜態(tài)圖片識別,無法突破動(dòng)態(tài)人臉識別,而“人臉面具”需要定制、價(jià)值不菲且制作工藝復(fù)雜,用在普通人身上性價(jià)比并不高。
但AI改變了一切,簡直把造假成本降到了“白菜價(jià)”。
視頻越短、像素越低、實(shí)時(shí)性要求(需要實(shí)時(shí)換臉還是可以制作完視頻再發(fā)出)越低、欺騙對象警惕性越低、可用素材(就是目標(biāo)人物的多角度照片、視頻)越多,造假成本就越低。
舉個(gè)例子,同樣是一個(gè)人說話,AI換成另一個(gè)人的臉,直接上手就能用的AI模型配合NVIDIA GTX1080 Ti可以做到這樣,動(dòng)作還算流暢,但“塑膠感”嚴(yán)重,一眼就能看出不是真人的視頻。
圖源:Youtube@Matthias Niessner
而經(jīng)過NVIDIA RTX 3090 Ti長時(shí)間(數(shù)小時(shí)甚至數(shù)天)訓(xùn)練的AI模型,可以做出相當(dāng)以假亂真的效果??赡苤挥性谡J(rèn)真反復(fù)的觀看下,才會(huì)發(fā)現(xiàn):誒?剛剛這個(gè)人額頭的皺紋是不是在閃?
圖源:Youtube@Druuzil Tech & Games
針對“人臉識別”,deepfake便宜很多;因?yàn)楣テ啤叭四樧R別”不需要最“精細(xì)”,最費(fèi)工夫的Deepfake技術(shù),只需要一個(gè)清晰度一般的幾秒鐘的視頻。
而提高成本后制作的更精細(xì)的視頻,則可以用于其他的詐騙用途。并且這種造假是一種“一本萬利”的買賣,在設(shè)備與算法齊全后,就可以根據(jù)不同的情境與需求,批量生產(chǎn)假視頻。
三、普通人能怎么辦
當(dāng)AI換臉進(jìn)入普通人的生活,我們能做些什么來應(yīng)對跟它相關(guān)的不法行為呢?
1. “騙”機(jī)器的換臉咋辦?
針對刷臉驗(yàn)證身份這一類場景,偽造的視頻需要通過的是人臉識別系統(tǒng)的自動(dòng)驗(yàn)證,或者說“騙過”機(jī)器。所需的視頻時(shí)間短(幾秒鐘以內(nèi))、動(dòng)態(tài)簡單(只有少量固定動(dòng)作、甚至有些系統(tǒng)僅僅識別圖片)、沒有實(shí)時(shí)要求,從技術(shù)上來講是相對簡單的,識別端也不在真人的掌控之中。
對于這類案件,普通人能做的就是平時(shí)守護(hù)好自己的個(gè)人信息(包括人臉信息),并且盡量采用多種方式結(jié)合的身份驗(yàn)證。
密碼、指紋、手機(jī)號,能選的驗(yàn)證方式都選上,雖然自己也會(huì)麻煩點(diǎn),但是相當(dāng)于多幾道保險(xiǎn),全部被同時(shí)攻破的可能性還是小很多的。
如果不幸被盜刷,立刻報(bào)警,配合警察追蹤不法分子、追回違法所得,同時(shí)上報(bào)平臺,讓平臺獲取更多的信息來修補(bǔ)漏洞、升級系統(tǒng)。
2. “騙”真人的換臉,咋辦?
欺騙真人的AI換臉,比如面對個(gè)人的勒索、詐騙,還有面對大眾的虛假新聞,則顯得更加隱蔽和多樣化。
從根本上來說,有了AI換臉技術(shù)以后,普通人面對圖像信息都應(yīng)該多留個(gè)心眼,不能一味相信“眼見為實(shí)”。
如果被人用偽造的裸照、不雅視頻勒索,不要回應(yīng),直接報(bào)警。
這類犯罪的AI換臉目標(biāo)就是受害人,所以只要看到視頻的人知道自己沒有拍過此類照片、視頻,就可以判斷視頻是偽造的。最大的難點(diǎn)反而在于不要自亂陣腳、不要因?yàn)楹ε露虿环ǚ肿咏桓跺X財(cái)。
如果被人用偽造的視頻詐騙,比如騙子盜了你朋友的號,用AI換臉跟你實(shí)時(shí)通話借錢。這個(gè)時(shí)候,多渠道驗(yàn)證就很重要,各個(gè)社交平臺、郵箱、短信、電話,不要因?yàn)閷Ψ娇雌饋砗苤本拖攵疾幌氲卮蝈X。
在觀看網(wǎng)上的新聞、視頻時(shí),多查查新聞來源是否可靠。尤其是什么拜登講話,馬斯克講話,這些名人們可用于機(jī)器學(xué)習(xí)的訓(xùn)練集太多了,仿造高精度視頻很容易。
這張圖里的馬斯克是假的哈…… | 圖源:VR陀螺
四、識別Deepfake的億些小技巧
還有一些小訣竅,可以幫助你更好地判斷一個(gè)視頻是不是AI換臉偽造的(如果開了十級美顏,這些方法就不是很可靠了。畢竟,十級美顏也可以被看作一種AI換臉呢):
1. 關(guān)注臉型
多看看臉的大小、形狀、下顎線位置,尤其是動(dòng)起來的樣子,和本人是否一致。
2. 關(guān)注皺紋
畢竟每個(gè)人的皮膚情況和皺紋走向都是不一樣的,AI模型僅憑一些照片(而且不一定是最近的照片),生成的皺紋很難跟本人一模一樣。
一個(gè)人皮膚過于光滑、皺紋過多、或者全臉皮膚狀況不一致(比如額頭很多皺紋、臉頰卻很光滑)、一段視頻中年齡感不一致(一會(huì)兒看著年輕一會(huì)兒看著年長),都可能是偽造視頻的特征。
3. 關(guān)注背景
看看這個(gè)背景是不是這個(gè)人平時(shí)用的背景、背景和人的銜接是不是自然、背景本身有沒有變形等等。
4. 關(guān)注光影
AI換臉生成的視頻并不遵循現(xiàn)實(shí)世界的物理光影規(guī)則,因此面部的陰影、眼鏡的反光等等,都可能出賣偽造的視頻。
5. 關(guān)注五官的位置和大小
AI偽造的視頻可能會(huì)出現(xiàn)五官忽大忽小、位置飄移的現(xiàn)象。
6. 關(guān)注獨(dú)特的面部特征
如果這個(gè)人臉上有痣、文身、疤痕,它們看起來都在正確的位置嗎?
7. 關(guān)注頭發(fā)
發(fā)量、發(fā)際線看起來真實(shí)嗎?頭發(fā)邊緣看起來自然嗎?
8. 關(guān)注動(dòng)態(tài)
比如眨眼的頻率和方式是否正常、眉毛和嘴的運(yùn)動(dòng)是否像這個(gè)人平時(shí)的樣子、轉(zhuǎn)頭(尤其是轉(zhuǎn)到90度的側(cè)面)的時(shí)候有無變形、臉部被遮擋的時(shí)候遮擋物是否清晰可見,都是一些辨別AI偽造視頻的要點(diǎn)。
一些容易露餡的動(dòng)作 | 圖源:metaphysic & VFXChris Ume
除了以上的理論知識,你還可以試著去這個(gè)網(wǎng)站(https://detectfakes.media.mit.edu/)實(shí)操做題,提升一下自己鑒別假視頻的能力,說不定還能幫科學(xué)家對抗使用AI換臉的不法行為。
名人們有說過這些話嗎?| 圖源:MIT Media Lab
只要還有很高的潛在非法收益,不法分子就會(huì)不惜加大投入,制作更精美、更“真實(shí)”的虛假視頻,去欺騙普通人、大公司、大機(jī)構(gòu)乃至政府。
所以,除了個(gè)人能做到的事情外,其實(shí)也更應(yīng)該由政府、公司從政策法規(guī)和技術(shù)建設(shè)上不斷完善和加強(qiáng),讓技術(shù)的進(jìn)步真正造福于人類,而不是淪為傷害他人的犯罪工具。
參考資料
[1]http://epaper.ynet.com/html/2022-04/14/content_396257.htm?div=-1
[2]驚堂木 | 眼見為實(shí)?“變臉”盜刷支付寶!已有人中招… (2022). Retrieved 25 October 2022, from https://mp.weixin.qq.com/s/qNEaUN-A_83OL53vHvbWww
[3]https://www.theverge.com/2019/12/13/21020575/china-facial-recognition-terminals-fooled-3d-mask-kneron-research-fallibility
[4]Kneron’s Edge AI & Facial Recognition Survey Pushes Forward Industry | Kneron – Full Stack Edge AI. (2020). Retrieved 25 October 2022, from https://www.kneron.com/news/blog/85/
[5]All it takes to fool facial recognition at airports and border crossings is a printed mask, researchers found. (2022). Retrieved 25 October 2022, from https://www.businessinsider.com/facial-recognition-fooled-with-mask-kneron-tests-2019-12
[6]To Uncover a Deepfake Video Call, Ask the Caller to Turn Sideways – Metaphysic.ai. (2022). Retrieved 25 October 2022, from https://metaphysic.ai/to-uncover-a-deepfake-video-call-ask-the-caller-to-turn-sideways/
[7]Detecting deepfakes by looking closely reveals a way to protect against them. (2022). Retrieved 25 October 2022, from https://phys.org/news/2019-06-deepfakes-reveals.html
[8]Europol report finds deepfake technology could become staple tool for organised crime | Europol. (2022). Retrieved 25 October 2022, from https://www.europol.europa.eu/media-press/newsroom/news/europol-report-finds-deepfake-technology-could-become-staple-tool-for-organised-crime
[9]Project Overview ? Detect DeepFakes: How to counteract misinformation created by AI – MIT Media Lab. (2022). Retrieved 25 October 2022, from https://www.media.mit.edu/projects/detect-fakes/overview/
[10]Sharif, M., Bhagavatula, S., Bauer, L., & Reiter, M. K. (2016, October). Accessorize to a crime: Real and stealthy attacks on state-of-the-art face recognition. In Proceedings of the 2016 acm sigsac conference on computer and communications security (pp. 1528-1540).
[11]Thies, J., Zollh?fer, M., Theobalt, C., Stamminger, M., & Nie?ner, M. (2018). Headon: Real-time reenactment of human portrait videos. ACM Transactions on Graphics (TOG), 37(4), 1-13.
[12]Li, Y., Yang, X., Wu, B., & Lyu, S. (2019). Hiding faces in plain sight: Disrupting AI face synthesis with adversarial perturbations. arXiv preprint arXiv:1906.09288.
[13]Westerlund, M. (2019). The emergence of deepfake technology: A review. Technology Innovation Management Review, 9(11).
[14]Mirsky, Y., & Lee, W. (2021). The creation and detection of deepfakes: A survey. ACM Computing Surveys (CSUR), 54(1), 1-41.
[15]Li, C., Wang, L., Ji, S., Zhang, X., Xi, Z., Guo, S., & Wang, T. (2022). Seeing is living? rethinking the security of facial liveness verification in the deepfake era. CoRR abs/2202.10673.
[16]Nguyen, T. T., Nguyen, Q. V. H., Nguyen, D. T., Nguyen, D. T., Huynh-The, T., Nahavandi, S., … & Nguyen, C. M. (2022). Deep learning for deepfakes creation and detection: A survey. Computer Vision and Image Understanding, 223, 103525.
[17]警惕!偽造“人臉”盜取賬號,漳州兩男子被抓_騰訊新聞. (2022). Retrieved 25 October 2022, from https://new.qq.com/rain/a/20220830A068U500
作者:羅碗,編輯:Emeria、游識猷,公眾號:果殼(ID:Guokr42)
原文鏈接:https://mp.weixin.qq.com/s/NiYQywzCLGIADk2LZUYYGw
本文由 @果殼 授權(quán)發(fā)布于人人都是產(chǎn)品經(jīng)理,未經(jīng)作者許可,禁止轉(zhuǎn)載
題圖來自 Unsplash,基于 CC0 協(xié)議
該文觀點(diǎn)僅代表作者本人,人人都是產(chǎn)品經(jīng)理平臺僅提供信息存儲(chǔ)空間服務(wù)。
有很多刷臉支付的,但是我都沒換,哈哈哈哈,還是覺得刷碼好一點(diǎn)
還是得先加強(qiáng)發(fā)法律懲戒力度,讓盜刷的代價(jià)提高自然沒人會(huì)以身犯險(xiǎn)
科技是把雙刃劍,生活便利的同時(shí)各種問題漸漸出現(xiàn)
太嚇人了,真希望這些技術(shù)的發(fā)展是給人類帶來福音服務(wù)的。