(經濟觀察)高度逼真、手段多樣,AI詐騙如何防?
中新社北京6月9日電 (記者 劉育英)AI(人工智能)一鍵換臉、AI克隆聲音、AI釣魚郵件......近日兩(liang) 起詐騙金額上百萬(wan) 元(人民幣,下同)的案件引起人們(men) 關(guan) 注。AI技術快速發展,挑戰也逐漸顯現。
近日,內(nei) 蒙古包頭警方通報一起利用AI實施詐騙的案件,在這一案件中,福州市某公司法人代表郭先生10分鍾內(nei) 被騙430萬(wan) 元。據通報,騙子通過AI換臉和擬聲技術,佯裝熟人實施詐騙。
今年4月份,在安徽安慶經開區發生一起AI換臉詐騙,詐騙分子使用一段9秒鍾的智能AI換臉視頻佯裝“熟人”,讓受害人放鬆警惕被騙走245萬(wan) 元。
AI詐騙是利用AI技術,模仿、偽(wei) 造他人的聲音、麵孔、視頻等信息,進行欺騙、敲詐、勒索等的犯罪活動。早在2019年,華爾街日報就報道過詐騙犯利用深度偽(wei) 造語音技術冒充英國某能源公司高管詐騙24萬(wan) 餘(yu) 美元。
中國信息通信研究院雲(yun) 計算與(yu) 大數據研究所內(nei) 容科技部研究員呼娜英對中新社記者表示,當前,隨著深度學習(xi) 等AI技術的成熟,AI詐騙新手段體(ti) 現出詐騙手段愈發多樣、詐騙門檻大幅降低、辨別難度不斷加大等特點。
在網上,高逼真的換臉付費軟件價(jia) 值僅(jin) 在幾百元至幾千元之間。
“基於(yu) 公開發布的數據信息、照片、視頻,利用深度合成等AI技術生成高度逼真的圖像、視頻和語音等內(nei) 容,這些以假亂(luan) 真的虛假信息更易取得對方信任,從(cong) 而使得受害者放鬆警惕。”賽迪研究院網絡安全研究所所長劉權對中新社記者表示。
防範AI詐騙也需要多管齊下,齊抓共治。今年4月,中國國家互聯網信息辦公室就《生成式人工智能服務管理辦法(征求意見稿)》向社會(hui) 公開征求意見,其主旨思想是促進生成式人工智能技術的健康發展和規範應用。
劉權認為(wei) ,該辦法建立了AI服務的管理框架,對生成式人工智能服務提供者和使用者進行了規範化管理,要求提供生成式人工智能產(chan) 品或服務的企業(ye) 或個(ge) 人進行實名認證、信息公示、申報安全評估、履行算法備案和變更、注銷備案手續等措施,有助於(yu) 減少非法個(ge) 體(ti) 或組織實施AI詐騙的可能性。
呼娜英表示,2023年1月施行的《互聯網信息服務深度合成管理規定》,細化了深度合成技術支持者、服務提供者、服務使用者以及應用程序分發平台的主體(ti) 責任,規定的落實將有效遏製AI換臉等詐騙事件。
有專(zhuan) 家進一步提出,立法部門應加快對AI技術的運用進行立法規製,不妨對人工智能設備和軟件的使用和注冊(ce) 進行明確限製,防止“AI”技術的運用“無序化”“無法化”。
奇安信董事長齊向東(dong) 表示,人工智能技術被傳(chuan) 統犯罪分子用來偽(wei) 造聲音、偽(wei) 造圖像、偽(wei) 造視頻、偽(wei) 造證據,以假亂(luan) 真,人們(men) 很難去甄別。要解決(jue) 這些挑戰,隻有靠技術和它進行對抗。
因此相關(guan) 部門應持續AI反詐技術的研究,提升防範AI欺詐的技術手段,利用機器學習(xi) 和數據挖掘、區塊鏈等技術加強對AI應用的監管與(yu) 審查,及時發現和防範違法行為(wei) 。
此外,還應提高公眾(zhong) 反詐意識與(yu) 防範AI詐騙的能力。中國互聯網協會(hui) 日前也對AI換臉新騙局做出提醒,包括做好個(ge) 人信息安全第一責任人,加強個(ge) 人信息保護意識,防止信息泄露:不輕易提供人臉、指紋等個(ge) 人生物信息給他人等。
治理AI詐騙需要多管齊下。劉權表示,應加強跨部門、跨行業(ye) 的協同配合,建立聯合公安、工信、網信、市場監管部門等政府部門,以及電信企業(ye) 、通訊軟件提供商、銀行等企業(ye) 的工作機製,共同監管和維護網絡安全。(完)
版權聲明:凡注明“來源:新利平台”或“新利平台文”的所有作品,版權歸高原(北京)文化傳(chuan) 播有限公司。任何媒體(ti) 轉載、摘編、引用,須注明來源新利平台和署著作者名,否則將追究相關(guan) 法律責任。