新利平台 > 即時新聞 > 時政

防範“AI換臉”詐騙 你需要的知識都在這兒了

發布時間:2024-02-26 10:00:00來源: 央視新聞客戶端

  近年來,隨著人工智能技術的進步,一些不法分子開始利用AI技術融合他人麵孔和聲音,製造非常逼真的合成圖像來實施新型網絡詐騙,這類騙局常常會(hui) 在短時間內(nei) 給被害人造成較大損失。我們(men) 應該如何看清這類AI“深度造假”?辨別“AI換臉”有沒有什麽(me) 好方法?我們(men) 先來看看近期發生在陝西西安的一起“AI換臉”詐騙案例。

  陝西西安財務人員張女士與(yu) 老板視頻通話,老板要求她轉賬186萬(wan) 元到一個(ge) 指定賬號。

  被害人 張女士:老板讓把這個(ge) 款趕緊轉過去,這個(ge) 款非常著急,因為(wei) 他聲音還有視頻圖像都跟他人長得一樣的,所以就更確信這筆款是他說的了,然後我直接就把這筆款轉了。

  轉賬之後,張女士按照規定將電子憑證發到了公司財務內(nei) 部群裏,然而出乎意料的是,群裏的老板看到信息後,向她詢問這筆資金的來由?

  被害人 張女士:然後我們(men) 就打電話再跟老板去核實,老板說他沒有給我發過視頻,然後也沒有說過這筆轉賬。

  意識到被騙的張女士連忙報警求助,警方立刻對接反詐中心、聯係相關(guan) 銀行進行緊急止付,最終保住了大部分被騙資金156萬(wan) 元。

  AI“多人換臉”詐騙案 騙走2億(yi) 港元

  一百多萬(wan) 的現金,對大部分人來說都算是一筆巨款了,好在警方處理及時,挽回了大部分損失,下麵我們(men) 再來看另一起案例,這起案例的“換臉”技術難度更高,涉案金額也更大。近期, 香港警方也披露了一起AI"多人換臉"詐騙案,涉案金額高達2億(yi) 港元。

  在該起案件中,一家跨國公司香港分部的職員,受邀參加總部首席財務官發起的多人的視頻會(hui) 議。並按照要求,前後轉賬多次,將2億(yi) 港元轉賬到5個(ge) 本地銀行賬戶內(nei) ,其後向總部查詢方知受騙。警方調查得知,這起案件中,所謂的視頻會(hui) 議中,隻受害者一人為(wei) “真人”,其餘(yu) 所謂參會(hui) 人員,全部是經過AI換臉後的詐騙人員。

  看完這兩(liang) 起案例,您一定有些好奇,AI換臉背後的技術原理到底是什麽(me) ?在技術層麵,它是如何實現人臉的精確識別與(yu) 替換,創造出逼真效果?我們(men) 來聽聽專(zhuan) 家的講解。

  技術上如何實現人臉精確識別與(yu) 替換

  中國網絡空間安全協會(hui) 人工智能安全治理專(zhuan) 委會(hui) 專(zhuan) 家 薛智慧:AI換臉過程主要包括人臉識別追蹤、麵部特征提取、人臉變換融合、背景環境渲染、圖像與(yu) 音頻合成等幾個(ge) 關(guan) 鍵步驟。其背後最核心的包括為(wei) 三個(ge) 部分,首先,利用深度學習(xi) 算法精準地識別視頻中的人臉圖像,並提取出如眼睛、鼻子、嘴巴等關(guan) 鍵麵部特征。其次,將這些特征與(yu) 目標人臉圖像進行匹配、替換、融合。最後,通過背景環境渲染並添加合成後的聲音,生成逼真度較高的虛假換臉視頻。

  快速AI“換臉”僅(jin) 通過一張照片就可完成

  為(wei) 了了解AI換臉到底能有多麽(me) 逼真,記者經過與(yu) 專(zhuan) 業(ye) 技術人員合作,深度體(ti) 驗了AI換臉技術。

  技術人員首先用手機給記者拍了一張臉部照片,導入到AI人工智能軟件後,讓記者驚訝的是,雖然電腦攝像頭前的是技術人員,但是輸出的確是記者的照片,幾乎可以說是“一鍵換臉”,不需要複雜的環境和解壓操作。

  更令人驚訝的是,隨著技術人員麵部表情變化,照片上記者的臉也跟著一起發生了相應變化。

  記者:為(wei) 什麽(me) 技術人員這張臉動,我的照片會(hui) 跟著動呢?

  中國網絡空間安全協會(hui) 人工智能安全治理專(zhuan) 委會(hui) 專(zhuan) 家 薛智慧:首先通過視頻的采集,能夠把圖片裏這個(ge) 人臉的麵部追蹤定位到,定位到以後第二步他能夠做一個(ge) 人臉的麵部特征點的采集和提取,主要就是包括嘴、鼻子跟眼睛相關(guan) 的這些明顯的麵部特征。采集到以後, 第三步就跟把這張原始的照片,做一個(ge) 變換跟融合跟整形。

  記者:通過這張照片還可以做到什麽(me) ?

  中國網絡空間安全協會(hui) 人工智能安全治理專(zhuan) 委會(hui) 專(zhuan) 家 薛智慧:當前通過這張照片技術人員已經讓這張照片能夠動起來,活起來了,而如果更進一步的將這張照片存下來,能夠存儲(chu) 大量的照片的話。後期可以把這張照片合成一段簡短的視頻發布出來。

  人工智能人臉檢測技術主要通過深度學習(xi) 算法實現,這種技術能夠識別出麵部特征並對其進行精準的分析。可以將一個(ge) 人的麵部表情從(cong) 一張照片或視頻中提取出來,並將其與(yu) 另一個(ge) 人的麵部特征進行匹配。專(zhuan) 家告訴記者,如果想要實現視頻實時通話時采用人工智能AI換臉技術,一張照片是遠遠不夠的,那就需要不同角度的近千張照片的采集。

  中國網絡空間安全協會(hui) 人工智能安全治理專(zhuan) 委會(hui) 專(zhuan) 家 薛智慧:如果要實時點對點交流的話,需要再采集更多的照片,完了進行深度學習(xi) 算法模型的訓練,訓練出來這個(ge) 模型以後灌到咱們(men) 這個(ge) 視頻裏去,就可以做實時的變化跟轉換了。這種情況下,就可以做到實時的變臉。聲音的交流也可以,需要預先采集一些咱們(men) 目標人群當中的聲音,然後進行模型的訓練,能夠把目標人群的聲音還原出來。

  AI生成仿真度極高視頻 難度高投入大

  專(zhuan) 家介紹,以詐騙為(wei) 目的,實施點對點視頻通話,需要AI人工智能生成仿真度極高的視頻。想要達到以假亂(luan) 真效果用於(yu) 詐騙,難度不小。

  中國計算機學會(hui) 安全專(zhuan) 業(ye) 委員會(hui) 數字經濟與(yu) 安全工作組成員 方宇:針對詐騙,其實主要是通過點對點的視頻通話,這時候如果采用換臉技術和聲音合成做實時的換臉詐騙的話,想要完成這些技術操作,就需要投入很強的技術支持。

  中國網絡空間安全協會(hui) 人工智能安全治理專(zhuan) 委會(hui) 專(zhuan) 家 薛智慧:背後需要有大量的資金的投入,包括圖片的采集,包括專(zhuan) 業(ye) 算法的人員等等,需要很長的一個(ge) 周期,包括一些算力算法。各方麵的投入,需要長時間不斷地迭代,進行操作,才能達到一個(ge) 相當逼真的效果,才有可能實現到詐騙的實際效果。

  目前AI“換臉”更多應用於(yu) 娛樂(le) 視頻錄製

  除了一些不法分子企圖利用AI技術實施詐騙,事實上,近年來,AI技術更多地被應用於(yu) 短視頻的二次創作,屬於(yu) 娛樂(le) 性質,越來越多的名人AI換臉視頻出現在網絡上,不少網友感歎,這類視頻“嘴型、手勢都對得上,太自然了,差點兒(er) 以為(wei) 是真的。”

  比如這款軟件,拍下記者麵部照片後,就能錄製生成出一段記者秒變賽車手的視頻。

  中國計算機學會(hui) 安全專(zhuan) 業(ye) 委員會(hui) 數字經濟與(yu) 安全工作組成員 方宇:AI技術目前我們(men) 常看到的主要是短視頻換臉,通過做一些特定的動作,跳舞啊等等。這些視頻其實看起來是有一些不自然的,本身也是純屬於(yu) 娛樂(le) 性質的換臉。

  記者發現在手機應用商城中,有數十款換臉軟件,都可以做到換臉的目的。

  中國網絡空間安全協會(hui) 人工智能安全治理專(zhuan) 委會(hui) 專(zhuan) 家 薛智慧:如果從(cong) 娛樂(le) 大眾(zhong) 的角度來說的話,現在市麵上也有很多的這些軟件和工具,能夠達到AI換臉的效果,但是仿真度隻有六七分的樣子,大眾(zhong) 直接就能看出來。但是如果要生成一個(ge) 詐騙視頻來說話,就要生成咱們(men) 仿真度極高的這種點對點視頻。

  AI技術“換臉換聲”可能存在法律風險

  不過,AI技術也是把“雙刃劍”,即使是出於(yu) 娛樂(le) 使用AI換臉、AI換聲,也是存在法律風險的。法律專(zhuan) 家表示,用AI技術為(wei) 他人換臉換聲甚至翻譯成其他語言並發布視頻,可能涉嫌侵權,主要有三個(ge) 方麵:

  一是涉嫌侵犯著作權,例如相聲、小品等都屬於(yu) 《中華人民共和國著作權法》保護的“作品”。例如網友用AI軟件將相聲、小品等“翻譯”成其他語言,需經過著作權人授權,否則就存在侵權問題。

  二是涉嫌侵犯肖像權,根據《中華人民共和國民法典》,任何組織或者個(ge) 人不得以醜(chou) 化、汙損,或者利用信息技術手段偽(wei) 造等方式侵害他人的肖像權。未經肖像權人同意,不得製作、使用、公開肖像權人的肖像,但是法律另有規定的除外。

  三是涉嫌侵犯聲音權,根據《中華人民共和國民法典》規定,對自然人聲音的保護,參照適用肖像權保護的有關(guan) 規定。也就是說,需要取得聲音權人的同意,才能夠使用他人的聲音。

  學會(hui) 幾招 輕易識別AI“換臉換聲”

  AI換臉這一技術的出現,導致耳聽為(wei) 虛、眼見也不一定為(wei) 實了。那我們(men) 該如何防範呢?專(zhuan) 家表示,其實AI人工換臉無論做得多麽(me) 逼真, 想要識別視頻真假還是有一些方法的。

  中國計算機學會(hui) 安全專(zhuan) 業(ye) 委員會(hui) 數字經濟與(yu) 安全工作組成員 方宇:實際上從(cong) 我目前看到的深度偽(wei) 造的實時視頻上來看,其實還是可以通過一些方式,去進行一些驗證。

  那比如說我們(men) 可以要求對方在視頻對話的時候呢,在臉部的麵前通過揮手的方式,去進行一個(ge) 識別,實時偽(wei) 造的視頻,因為(wei) 它要對這個(ge) 視頻進行實時的生成和處理和AI的換臉。

  那麽(me) 在揮手的過程中,就會(hui) 造成這種麵部的數據的幹擾,最終產(chan) 生的效果就是我們(men) 看到的這樣,揮手的過程中,他所偽(wei) 造的這個(ge) 人臉會(hui) 產(chan) 生一定的抖動或者是一些閃現,或者是一些異常的情況。

  第二個(ge) 就是點對點的溝通中可以問一些隻有對方知道的問題,驗證對方的真實性。

  提高防範意識 避免個(ge) 人生物信息泄露

  專(zhuan) 家表示,除了一些辨別AI換臉詐騙的小訣竅,我們(men) 每一個(ge) 人都應該提高防範意識,在日常生活中也要做好相關(guan) 防範措施,養(yang) 成良好的上網習(xi) 慣。首先應該是做好日常的信息安全的保護,加強對人臉、聲紋、指紋等生物特征數據的安全防護:另外做好個(ge) 人的手機、電腦等終端設備的軟硬件的安全管理。第二,不要登錄來路不明的網站,以免被病毒侵入。第三,對可能進行聲音、圖像甚至視頻和定位采集的應用,做好授權管理。不給他人收集自己信息的機會(hui) ,也能在一定程度上讓AI換臉詐騙遠離自己。

  伴隨AI技術發展 需要多層麵監管規範

  除了要提高自我防範意識,如何對AI技術加強監管,也成了越來越多人關(guan) 注的問題。AI技術本身不是問題,關(guan) 鍵是我們(men) 要怎麽(me) 用它?如何形成有效監管?專(zhuan) 家介紹,AI技術發展,需要多層麵監管規範。

  一是在源頭端,需要進一步加強公民個(ge) 人信息保護,尤其是加強對生物特征等隱私信息的技術、司法保護力度。二是在技術層麵可以加強管理。例如可以讓視頻傳(chuan) 播網站或者社交軟件,使用專(zhuan) 業(ye) 的鑒別軟件來鑒定,對AI生成視頻,打上不可消除的“AI生成”水印字樣。目前,這種數字水印鑒偽(wei) 技術有待進一步普及。三是在法律製度層麵,要進一步完善人工智能等領域相關(guan) 法律法規。2023年8月15日,我國正式施行《生成式人工智能服務管理暫行辦法》。《辦法》從(cong) 多個(ge) 方麵“劃下紅線”,旨在促進生成式人工智能健康發展和規範應用。 (記者 崔世傑)

(責編:李雨潼)

版權聲明:凡注明“來源:新利平台”或“新利平台文”的所有作品,版權歸高原(北京)文化傳(chuan) 播有限公司。任何媒體(ti) 轉載、摘編、引用,須注明來源新利平台和署著作者名,否則將追究相關(guan) 法律責任。