新利平台 > 即時新聞 > 時政

“深度偽造”真假難辨 有效監管成為關鍵

發布時間:2024-02-19 10:16:00來源: 法治日報

  法治日報記者 王衛

  近期,美國流行樂(le) 歌星泰勒·斯威夫特的“AI偽(wei) 造照片”事件掀起軒然大波,甚至驚動了美國白宮。雖然利用AI技術製作虛假信息早已有之,但隨著生成式AI在過去一年多時間內(nei) 的快速發展,對視頻、圖片、音頻進行深度造假技術更加成熟且普遍,造假的成本也更加低廉。如何在發展、利用生成式AI的同時,有效監管和減少深度偽(wei) 造產(chan) 生的虛假信息,成為(wei) 全球關(guan) 注的一個(ge) 重要議題。

  眼見不一定為(wei) 實

  “深度偽(wei) 造”技術利用機器的深度學習(xi) ,實現圖像、聲音、視頻的篡改、偽(wei) 造和自動生成,產(chan) 生高度逼真且難以甄別的效果。

  近日,大量由AI生成的泰勒虛假色情、血腥照片在多個(ge) 社交平台瘋傳(chuan) ,瀏覽量已超過千萬(wan) ,引發社交媒體(ti) 震動,也引起了美國白宮的注意。實際上這不是泰勒第一次成為(wei) AI“深度偽(wei) 造”的受害者。就在不久前,有人使用AI技術仿造了她的聲音和形象來為(wei) 商品進行推廣,讓消費者誤以為(wei) 這是泰勒代言的商品。

  白宮新聞秘書(shu) 卡琳·讓-皮埃爾表示:“我們(men) 對媒體(ti) 發布的關(guan) 於(yu) 泰勒照片(更確切地說是虛假圖像)流傳(chuan) 的報道感到震驚,這種情況令人擔憂。雖然社交媒體(ti) 平台在內(nei) 容管理方麵作出了自己的獨立決(jue) 定,但我們(men) 認為(wei) 他們(men) 在執行自己規則方麵可以發揮重要作用,以防止錯誤信息和未經同意的真實人物的私密圖像傳(chuan) 播。”她還補充稱,“執法不到位對於(yu) 女性影響更大,畢竟她們(men) 是網絡騷擾的主要目標”。

  除了泰勒,同樣深受其害的還大有人在。

  印度當地媒體(ti) 《經濟時報》1月15日報道,此前一段視頻顯示,印度的板球傳(chuan) 奇人物坦杜卡支持一款名為(wei) Skyward Aviator Quest的遊戲應用程序,並稱他的女兒(er) 通過使用該應用程序預測遊戲結果,每日收入高達18萬(wan) 盧比。這名板球運動員回應稱,“這些視頻是假的,技術濫用現象猖獗,令人不安。請大家積極舉(ju) 報此類視頻、廣告和應用程序。社交媒體(ti) 平台需要保持警惕並響應投訴。他們(men) 的行動對於(yu) 阻止錯誤信息和深度偽(wei) 造的傳(chuan) 播至關(guan) 重要。”

  去年11月,美國新澤西一所中學30多名女生的照片被篡改和傳(chuan) 播,她們(men) 呼籲學校和政府采取措施;西班牙某小鎮的女學生也發現自己的“裸照”在學校和社區裏流傳(chuan) ,給她們(men) 的身心帶來不小衝(chong) 擊,當地警方發現這都是有人使用廉價(jia) 應用程序炮製而成。

  有報道指出,在全球化時代,社交媒體(ti) 成了滋生虛假信息的溫床,憑借一段原始語音、一張原始圖片,犯罪分子就可以編造出一段真假難辨的謠言。每個(ge) 人都有可能成為(wei) “AI惡意操作”的受害者。

  影響政治社會(hui) 秩序

  “深度偽(wei) 造”技術不斷被濫用,而“反深度偽(wei) 造”技術仍未成熟,這一局麵或將對個(ge) 人隱私、行政執法、司法取證等多方麵帶來困擾和威脅,引發社會(hui) 憂慮和信任危機。

  國際社會(hui) 認為(wei) ,“深度偽(wei) 造”技術首先給個(ge) 人和企業(ye) 帶來損害。製作虛假色情視頻是“深度偽(wei) 造”技術最常見的運用方式之一。“深度偽(wei) 造”技術可能侵害肖像權、隱私權和知識產(chan) 權等權利,也可能被用來實施詐騙、敲詐勒索等違法犯罪活動。2019年,全球首例AI詐騙案發生在英國,一名詐騙者利用先進的AI語音模仿軟件,假扮公司高層,成功騙取了一家英國能源公司總經理的22萬(wan) 歐元。

  其次是國家安全和公共安全受到威脅。美國專(zhuan) 家西特倫(lun) 舉(ju) 例說,“深度偽(wei) 造”可能會(hui) 影響美國大選,製造出一些候選人沒做過的“錯事”,這些影響是不可估量的。2018年4月,一段主角為(wei) 美國前總統奧巴馬的視頻,在推特上獲得200多萬(wan) 次的播放和5萬(wan) 多個(ge) 點讚。奧巴馬在視頻中抨擊時任總統特朗普。但實際上並非出自奧巴馬。2018年5月,特朗普宣布中止全球氣候變化協議,隨後被比利時某政黨(dang) 利用“深度偽(wei) 造”技術篡改,做出一個(ge) “特朗普宣告比利時政府也應退出”的假視頻,引起比利時民眾(zhong) 的公憤。

  第三是引發社會(hui) 憂慮和信任危機。專(zhuan) 家認為(wei) ,“深度偽(wei) 造”會(hui) 加深公眾(zhong) 對政府的不信任感。隨著公眾(zhong) 意識到“深度偽(wei) 造”的危害,他們(men) 會(hui) 對一般的真實視頻產(chan) 生懷疑,更容易把真實視頻當作虛假視頻,迷失在真假信息之中,對官方澄清也會(hui) 持懷疑態度。“泰勒是影響力很大的明星,要是我們(men) 普通人也被深度偽(wei) 造了不雅照可怎麽(me) 辦?”“AI發展得太快太恐怖了,我都不敢想如果是我那真的是跳進黃河也洗不清了。”“支持AI立法,濫用危害太大了。”“這真的和我們(men) 的生活息息相關(guan) ,AI照片視頻的人類麵部表情已經很像真人了,聲音也能模仿得一樣,這樣的騙局讓普通人難以分辨。”這些聲音傳(chuan) 達出了公眾(zhong) 對AI“深度偽(wei) 造”技術發展的強烈不安。

  及時完善立法

  盡管AI技術給我們(men) 的生活帶來了新的挑戰,但國際社會(hui) 普遍認為(wei) ,不能“因噎廢食”,拒絕發展相關(guan) 技術。在技術進步的過程中,其本身就可以用來對抗“深度造假”行為(wei) 。

  專(zhuan) 家學者、相關(guan) 領域的企業(ye) 機構想過不少應對辦法。比如在傳(chuan) 播之前標明“數字出處”。去年12月,一款名為(wei) mist的隱形圖片水印在網上發布,該水印用於(yu) 抵抗AI模型對圖片的訓練和抓取,這一水印能夠極大程度幹擾AI模型,使之生成的圖片遭受不同程度的破壞。此外,也有開發者建議讓AI生成平台、公司給相關(guan) 的AI生成軟件加上隱形水印機製,以快速識別AI並進行溯源,各個(ge) 社交平台也應以技術手段加強對於(yu) 疑似AI生成圖、文、視頻內(nei) 容的識別功能。

  還可以利用技術手段檢測偽(wei) 造。2018年6月,美國達特茅斯學院和紐約州立大學奧爾巴尼分校的計算機科學家宣布開發了一個(ge) 程序,通過在視頻中觀察研究對象眨眼時眼瞼運動是否異常,來檢測“深度造假”。當然,在攻防過程中,“深度造假”技術可能隨著檢測技術演進而不斷升級。

  另有專(zhuan) 家認為(wei) ,除了技術解決(jue) 方法之外,法律手段也要有所作為(wei) 。在以技術製約技術的同時,及時完善立法,不斷加強執法,對一些技術解決(jue) 不了的問題應該立法重罰,追究刑事責任。比如規定製作或分享“深度仿冒品”,構成誹謗、欺詐或盜用他人肖像等民事和刑事違法行為(wei) 等。早在2019年,中國便發布了《網絡音視頻信息服務管理規定》,旨在防止傳(chuan) 播利用基於(yu) 深度學習(xi) 、虛擬現實等新技術新應用製作的假新聞音視頻(即深度偽(wei) 造)。

  “深度偽(wei) 造”是人工智能“深度學習(xi) ”技術進步的產(chan) 物。它有許多有價(jia) 值的應用,例如出於(yu) 教育目的而製作曆史人物的音頻或視頻。但是,“深度偽(wei) 造”也可能被用於(yu) 險惡目的。如何控製技術向善除惡,是一個(ge) 需要不斷學習(xi) 的課題。各國應加強交流合作,通過技術和法律等手段,規避人工智能相關(guan) 風險,使之健康有序發展。

(責編:李雨潼)

版權聲明:凡注明“來源:新利平台”或“新利平台文”的所有作品,版權歸高原(北京)文化傳(chuan) 播有限公司。任何媒體(ti) 轉載、摘編、引用,須注明來源新利平台和署著作者名,否則將追究相關(guan) 法律責任。