新利平台 > 即時新聞 > 國內

平衡科技創新與隱私保護 多國計劃加強對ChatGPT監管

發布時間:2023-04-10 11:07:00來源: 法治日報

  平衡科技創新與(yu) 隱私保護

  多國計劃加強對ChatGPT監管

  □ 本報記者 王衛

  4月3日,德國聯邦數據保護專(zhuan) 員烏(wu) 爾裏希·凱爾伯稱,出於(yu) 對數據安全保護的考量,德國可能會(hui) 效仿意大利,暫時禁用ChatGPT。他透露,禁用該軟件的行為(wei) 將屬於(yu) 德國聯邦數據保護機構的職權範圍。此外,德國聯邦數據保護機構要求意大利監管機構提供有關(guan) 其阻止ChatGPT的更多信息。

  專(zhuan) 家指出,推出兩(liang) 個(ge) 月即擁有1億(yi) 活躍用戶,ChatGPT成為(wei) 曆史上增長最快的消費者應用程序。固然ChatGPT在實際使用中表現驚豔,然而囿於(yu) 大規模語言模型自身、數據原因等局限,仍存在成本高昂、信息泄露等劣勢。如何平衡科技創新與(yu) 隱私保護仍需各方不斷探索。

  多國跟進限製措施

  近期,多國對ChatGPT的不滿、恐慌、抵觸等負麵情緒正持續發酵。

  路透社報道稱,意大利個(ge) 人數據保護局(DPA)近日宣布從(cong) 3月31日起禁止使用ChatGPT,限製OpenAI處理意大利用戶信息數據,同時對其隱私安全問題立案調查。此舉(ju) 引發多國監管機構和企業(ye) 的關(guan) 注,德國、法國、愛爾蘭(lan) 等國家已開始準備效仿意大利的做法,加強對ChatGPT的監管。

  德國《商報》4月3日援引烏(wu) 爾裏希·凱爾伯的話稱,原則上,類似屏蔽行動在德國也是可能的。德國已要求意大利提供有關(guan) 其禁令的進一步信息。

  與(yu) 此同時,據英國路透社報道,法國和愛爾蘭(lan) 的個(ge) 人數據監管機構已經和意大利的同行取得聯係,以了解更多有關(guan) 該禁令的依據。愛爾蘭(lan) 數據保護機構(DPC)的一位發言人說:“我們(men) 正與(yu) 意大利監管機構跟進以了解他們(men) 采取行動的依據,我們(men) 將與(yu) 所有歐盟數據保護機構協調此事。”

  加拿大廣播公司(CBC)4月4日報道稱,加拿大聯邦隱私監管機構宣布,已經對OpenAI展開調查,因為(wei) 該公司涉嫌“未經同意收集、使用和披露個(ge) 人信息”。報道同時提到,美國總統拜登及其科技顧問委員會(hui) 在當日舉(ju) 行的會(hui) 議上也討論了人工智能的“風險和機遇”。

  據韓國《國民日報》4月3日報道,包括三星、SK海力士、浦項製鐵公司在內(nei) 的多家韓企正在采取限製使用ChatGPT的措施,嚴(yan) 防員工泄密。LG電子公司雖然未發出禁令,但要求員工進行“人工智能及數據使用”方麵的培訓。

  另據日經新聞網報道,出於(yu) 對信息泄露的擔憂,包括軟銀、日立、富士通、三菱日聯銀行和三井住友銀行在內(nei) 的日本公司已開始限製在業(ye) 務運營中使用ChatGPT等交互式人工智能服務。

  但瑞典的隱私監管機構表示,目前還沒有禁止ChatGPT的計劃,也沒有與(yu) 意大利的監管機構取得過聯係。西班牙的監管機構稱,尚未收到任何有關(guan) ChatGPT隱私泄露或是其他方麵的投訴,不過並不排除未來展開調查的可能性。

  涉嫌信息泄露風險

  這並不是ChatGPT第一次引發爭(zheng) 議。自從(cong) 該服務推出後,就有人擔心它會(hui) 被用來作弊、傳(chuan) 播假消息或誤導公眾(zhong) 。

  ChatGPT由美國人工智能研究實驗室OpenAI於(yu) 2022年11月30日推出,具備非常驚豔的語言理解、生成、知識推理能力。據報道,推出後短短幾天內(nei) ,其注冊(ce) 用戶超過100萬(wan) ,兩(liang) 個(ge) 月活躍用戶數已達1億(yi) ,引爆全網熱議,成為(wei) 曆史上增長最快的消費者應用程序,掀起了人工智能領域的技術巨浪。但不可否認的是,當ChatGPT運用更為(wei) 廣泛的同時,與(yu) 之相對應的疑問和擔憂也接踵而至。

  業(ye) 界認為(wei) ,ChatGPT目前技術尚處於(yu) 早期階段,其自身存在較多問題。首先,身為(wei) 大規模語言模型,ChatGPT使用成本高昂。ChatGPT基礎大模型訓練成本高、部署困難、每次調用花費不菲,還可能有延遲問題,對工程能力有很高的要求。數據顯示,OpenAI為(wei) 了讓ChatGPT的語言合成結果更自然流暢,共用了45TB的數據、近1萬(wan) 億(yi) 個(ge) 單詞來訓練模型。這大概相當於(yu) 1351萬(wan) 本牛津詞典。訓練一次的費用高達千萬(wan) 美元。

  其次,人工智能技術在信息泄露等方麵的社會(hui) 性風險,會(hui) 因為(wei) 使用的龐大數據規模被進一步放大。對於(yu) 司法工作而言,在司法人員和ChatGPT交互過程中,ChatGPT會(hui) 獲取大量業(ye) 務相關(guan) 數據,這些數據在案件未符合司法公開條件之前,不能隨意公開,一旦發生數據泄露,可能導致嚴(yan) 重後果。此外,OpenAI的使用條款並未對用戶可能輸入ChatGPT的數據信息提供任何保護。

  再次,ChatGPT準確率不高的問題不容忽視。由於(yu) ChatGPT的大部分答案都是從(cong) 已知內(nei) 容中摘錄或搜集而來,對於(yu) 未知的或者ChatGPT知識的盲區,則可能會(hui) 給出錯誤或者不恰當的建議意見。比如,司法工作人員在辦案工作中常常需要兼顧“天理國法人情”,需要考量辦案的法律效果社會(hui) 效果政治效果的統一,具有一定的人性化思考,而這些往往是人工智能有所欠缺和不足的,因此,此時ChatGPT給出的建議,會(hui) 存在一定程度的偏頗。

  數據安全任重道遠

  對於(yu) ChatGPT暴露出的相關(guan) 風險,歐盟對個(ge) 人數據的保護走在前列。據報道,歐盟即將出台的《人工智能法案》采取了一種基於(yu) 風險程度對人工智能係統進行分類管理的監管思路。但是,類似ChatGPT這樣的生成式人工智能產(chan) 品對當前的風險分類方法提出了挑戰。

  事實上,歐盟委員會(hui) 早在2021年便提出了《人工智能法案》條例草案,不過提案的推進並沒有預想中順利。歐洲議會(hui) 議員們(men) 爭(zheng) 議的核心是監管是否會(hui) 阻礙創新,即如何平衡數據隱私與(yu) 避免扼殺人工智能的創新和投資。其中最具爭(zheng) 議的領域是決(jue) 定哪些人工智能係統將被歸為(wei) “高風險”。有知情者透露,歐洲立法者目前正就多方麵限製“高風險”AI工具的新規則進行磋商。

  不僅(jin) 歐洲議會(hui) 議員們(men) 尚未就提案基本原則達成一致,政府內(nei) 部也引發了監管ChatGPT與(yu) 否的爭(zheng) 議。

  4月2日,意大利副總理兼基礎設施與(yu) 可持續交通部長馬泰奧·薩爾維尼在社交平台上公開發文,批評DPA暫時禁止ChatGPT的決(jue) 定,稱其屏蔽行為(wei) 太“過度”了。他稱該監管機構的行為(wei) “太過虛偽(wei) ”,這種做法像是沒有常識一樣,“幾乎所有的在線服務都無法避免涉及隱私問題”。在他看來,這項禁令可能會(hui) 損害國家的商業(ye) 發展和科技創新,希望能快速找到一個(ge) 解決(jue) 方案,早日恢複ChatGPT在意大利的使用。德國政府發言人同樣認為(wei) 沒有必要禁止ChatGPT。

  專(zhuan) 家表示,一邊是堅決(jue) 禁用,一邊是寬容放行。爭(zheng) 議背後也說明,如何保護公民數據隱私、規避隱私泄露風險等問題,將是人工智能與(yu) 大範圍覆蓋社會(hui) 生活後,各主體(ti) 必須要考慮和解決(jue) 的問題。過於(yu) 決(jue) 絕的“一刀切”做法也不值得提倡,監管政策既要有可商討的彈性空間,也要能讓企業(ye) 充分釋放出創新活力,更重要的是保護好公民的個(ge) 人數據隱私與(yu) 信息安全。這不僅(jin) 是意大利、德國如今麵臨(lin) 的難題,各國都需要在保護數據安全和監管防控過度之間做好平衡,用杠杆支撐起科技創新與(yu) 隱私保護兩(liang) 端。

(責編:陳濛濛)

版權聲明:凡注明“來源:新利平台”或“新利平台文”的所有作品,版權歸高原(北京)文化傳(chuan) 播有限公司。任何媒體(ti) 轉載、摘編、引用,須注明來源新利平台和署著作者名,否則將追究相關(guan) 法律責任。