拉緊AI法律“韁繩” 期待完善監管體係
閱讀提示
人工智能技術在不斷更新迭代,對應用領域的新風險需更重視。受訪專(zhuan) 家表示,人工智能的健康發展離不開技術和法律的合力,需要針對不同風險等級采取不同的監管措施。
用AI工具生成文本、合成假視頻,編造不實信息以引流;利用AI技術“換臉”“變聲”,實施電信詐騙……加速發展的人工智能技術在改變人類社會(hui) 、改變世界的同時,帶來的負麵影響和潛在風險逐漸顯現出來。
在剛剛過去的全國兩(liang) 會(hui) 上,不少代表委員關(guan) 注到人工智能的安全與(yu) 合規問題,從(cong) 技術、法律等角度就促進人工智能健康發展發出了建議和呼籲。
在人工智能加速發展的當下,如何拉緊法律“韁繩”成為(wei) 社會(hui) 關(guan) 注問題。受訪專(zhuan) 家指出,人工智能的健康發展離不開技術和法律的合力,呼籲建立健全完整的人工智能技術法律體(ti) 係,針對發展中不同風險等級采取不同的監管措施。
技術應用門檻降低帶來新風險
去年以來,已有多地警方提醒公眾(zhong) 防範不法分子利用AI技術“換臉”“換聲”進行的新型電信詐騙。在內(nei) 蒙古包頭市公安局披露的一起案件中,詐騙團夥(huo) 在AI技術的“掩護”下,佯裝為(wei) 一名企業(ye) 家的“好友”,撥打其微信視頻,稱需要用其公司賬戶“走一下賬”。
在視頻中確認了“好友”麵孔和聲音的該企業(ye) 家,將款項匯了過去。在撥打好友電話後,才發現視頻裏的“好友”係偽(wei) 裝。
人工智能已經從(cong) 概念加速應用落地,算法歧視、信息繭房等法律甚至倫(lun) 理等問題隨之而來。全國工商聯副主席、奇安信科技集團董事長齊向東(dong) 也指出,生成式人工智能技術可以快速生成釣魚郵件、編寫(xie) 惡意軟件與(yu) 代碼,AI欺詐事件頻繁發生。
360集團創始人周鴻禕將人工智能技術引發的安全風險分為(wei) 技術安全、內(nei) 容安全和人類安全。其中,內(nei) 容安全是對大模型的控製、濫用、誤用和惡意應用等。
AI為(wei) 何能給不法分子可乘之機?北京科技大學自動化學院教授、北京人工智能學會(hui) 理事曾慧在接受記者采訪時指出,AI正深度“潛入”人們(men) 的工作和生活,由於(yu) 算法是開源的,製作AI工具的技術門檻降低了,“相較以前,獲取和使用AI工具也變得更加簡單了”。
記者搜索發現,在一些平台,輸入圖片就可以輕鬆“換臉”,無須花費太多也可以自行訓練和製定聲音,男聲甚至可以變為(wei) 女聲。商家稱,遠程安裝10分鍾即可直接點開使用。
“就目前來看,AI生成的‘真實’並非毫無破綻。一些高度‘偽(wei) 裝’的內(nei) 容對設備和技術則有更高要求。”曾慧指出。
多位受訪者表示,人工智能還在不斷更新迭代,對應用領域的新風險需更重視。
AI應用有法可依但並不完善
“按照相關(guan) 規劃,我們(men) 還處於(yu) 建立人工智能法律法規體(ti) 係的初步階段,應該說,AI的應用並非無法可依,但還遠不夠完善。”北京誌霖律師事務所合夥(huo) 人謝陽律師在接受記者采訪時指出。
2017年,國務院印發《新一代人工智能發展規劃》(以下簡稱《規劃》),其中提出,“在大力發展人工智能的同時,必須高度重視可能帶來的安全風險挑戰,加強前瞻預防與(yu) 約束引導,最大限度降低風險”。《規劃》提出,到2030年建成更加完善的人工智能法律法規、倫(lun) 理規範和政策體(ti) 係。
推動人工智能健康發展和規範應用的政策陸續鋪開。全國兩(liang) 會(hui) 前,《生成式人工智能服務安全基本要求》發布,從(cong) 語料安全、模型安全等多個(ge) 維度規定了生成式人工智能服務在安全方麵的基本要求。《生成式人工智能服務管理暫行辦法》則在2023年8月15日起施行,其中提到,提供者應當依法承擔網絡信息內(nei) 容生產(chan) 者責任,履行網絡信息安全義(yi) 務。
謝陽介紹,根據《網絡信息內(nei) 容生態治理規定》,網絡信息內(nei) 容生產(chan) 者應當遵守法律法規,“其責任和義(yi) 務散見於(yu) 網絡安全法、數據安全法、消費者權益保護法、個(ge) 人信息保護法、侵權責任法、未成年人保護法等法律法規中。”
金杜律師事務所高級合夥(huo) 人張毅律師指出,目前已出台的算法管理規定仍有不足,例如,未對服務“提供者”等概念進行明確劃分;尚未設立統一的算法監管機構,對綜合型算法監管易產(chan) 生監管競合,對新型算法監管易出現監管真空;生成式人工智能技術迭代快、應用多樣,也帶來了更多新挑戰。
多位受訪專(zhuan) 家表示,算法侵害還麵臨(lin) 著“維權難”的困境,存在“取證難”“舉(ju) 證難”“認定難”“追責難”等問題。“在實踐中,將侵害結果追溯到具體(ti) 的行為(wei) 主體(ti) 也還麵臨(lin) 著障礙。”謝陽指出。
AI健康發展離不開技術與(yu) 法律合力
人工智能是引領未來的戰略性技術,如何最大限度發揮出向上向善的力量,對人們(men) 生活和社會(hui) 發展很重要。受訪專(zhuan) 家認為(wei) ,在人工智能的健康發展過程中,離不開技術和法律的合力。
“應借助AI能力,加速網絡安全技術創新、安全防護體(ti) 係創新。”齊向東(dong) 認為(wei) ,應鼓勵各個(ge) 行業(ye) 的龍頭公司和網絡安全公司合作,把AI安全技術融入數字化場景當中,進行有效的安全防護。
周鴻禕建議,製定保障通用大模型安全的標準體(ti) 係,推動通用大模型開展安全評測、接入安全服務,降低通用大模型安全風險。
張毅認為(wei) ,應盡快推進人工智能法的製定和出台,以人工智能法及配套的監管工具為(wei) 核心,形成完整的人工智能技術法律體(ti) 係。同時,參考其他成熟的監管思路,將人工智能和算法技術按風險等級進行劃分,並針對不同等級采取不同的監管措施。
“任何規範的最終落腳點是能追責,追責的前提之一是要留痕。”謝陽認為(wei) ,應進一步完善製度供給,可以通過法律法規來施行強製的行業(ye) 標準,以做到留痕,事前預防、事中規製、事後救濟等問題可迎刃而解。“可以采用試點模式,提前試點相關(guan) 的監管措施,待時機成熟時再予以推廣適用。”他建議。
“應拓展算法侵害行為(wei) 的維權路徑與(yu) 責任模式,增強用戶的維權力量。”張毅建議,在算法侵權的訴訟中采取“過錯推定”歸責原則,實行“舉(ju) 證責任倒置”。用戶僅(jin) 承擔受到算法損害的責任,由算法服務商對算法和損害之間無因果關(guan) 係以及無過錯承擔舉(ju) 證責任,“應增強源頭治理,形成責任閉環”。
趙琛 李潤釗 楊召奎(來源:工人日報)
版權聲明:凡注明“來源:新利平台”或“新利平台文”的所有作品,版權歸高原(北京)文化傳(chuan) 播有限公司。任何媒體(ti) 轉載、摘編、引用,須注明來源新利平台和署著作者名,否則將追究相關(guan) 法律責任。