■ 專(zhuan) 欄
在科技即將帶來生產(chan) 力革命的前夜,提前思索、討論和商定包容審慎監管的細節,遠比亡羊補牢更好。
近日,意大利宣布禁止使用ChatGPT,並限製OpenAI處理意大利用戶信息,同時,個(ge) 人數據保護局開始對此前ChatGPT立案調查。這也使得以ChatGPT為(wei) 代表的人工智能大模型還未全麵進入普及應用,就迎頭撞上了數據安全的質疑。
要看到,海量數據的積累帶來了人工智能的生產(chan) 力質變,同時,從(cong) 互聯網誕生起就始終縈繞左右的數據安全、隱私保護等問題,也成為(wei) 了人工智能大模型無法回避的伴生難題。
歐洲的個(ge) 人數據保護走在前列
從(cong) 曆史來看,ChatGPT在歐洲率先遭遇數據安全的質疑幾乎是必然。
自進入互聯網時代以來,歐洲在個(ge) 人數據保護方麵就始終走在全球前列,相關(guan) 監管堪稱全球最早最嚴(yan) 。
1981年開始,歐洲議會(hui) 就通過了世界上第一個(ge) 個(ge) 人數據保護條例,此後,相關(guan) 的監管條例始終緊跟技術變化,甚至始終領先技術一步。例如,1995年,歐盟進一步針對個(ge) 人數據隱私和流動通過了新的立法,而此時,互聯網時代也隻是剛剛開啟而已。
今時今日,關(guan) 於(yu) 個(ge) 人數據保護的概念,多是在歐洲被率先定義(yi) ,例如,數據的知情同意權、被遺忘權、數據攜帶權等等。因此,意大利援引全世界最嚴(yan) 格的數據保護條例,對現在仍在測試階段的ChatGPT進行封禁,既顯得突然,同時又順理成章。
客觀上說,當前的ChatGPT在數據隱私、合規、倫(lun) 理等領域的確處在測試探索階段,用戶在使用的同時,也在不斷提供新的數據來訓練該模型。
正因為(wei) 仍處在黑盒測試之中,這些數據的合法性來源、用戶數據尤其是隱私的保護、黑盒中的數據與(yu) 知識產(chan) 權衝(chong) 突等問題,都給法律、監管帶來了新的挑戰。因此,審慎為(wei) 上的歐洲才決(jue) 定采取一刀切的封殺政策。
安全與(yu) 創新之間的平衡挑戰
如何確保數據授權、界定數據安全的責任與(yu) 科技公司的義(yi) 務,規避隱私泄露、知識產(chan) 權等風險,這些都將是人工智能在大規模介入公共領域後,必須首先解決(jue) 的問題。
但與(yu) 此同時,意大利這種一刀切的政策也並不值得鼓勵。
過於(yu) 嚴(yan) 格且一刀切的監管政策,曾扼殺了歐洲在互聯網時代的科技創新能力。今天,在關(guan) 於(yu) 歐洲為(wei) 何錯過移動互聯網時代的討論中,過於(yu) 嚴(yan) 苛缺少彈性的監管政策,一直被視為(wei) 重要原因。
例如,2016年歐盟通過了史上最嚴(yan) 格的個(ge) 人數據保護法之後,多家全球科技企業(ye) 在歐洲均卷入了在數據上的反複博弈。
2019年,美國信息技術和創新基金會(hui) 下屬的數據創新中心曾發布報告指出,歐盟的數據保護條例並未產(chan) 生預期的積極效果,反而增加了企業(ye) 的數據合規成本、損害科技公司創新和競爭(zheng) 力,同時增加了消費者獲取在線服務的成本和不信任感。
回到人工智能領域,在全球大賽跑的背景下,既要提前設定紅線和規則以保護公民數據安全,同時,又要防止監管過度帶來的創新不足問題,這是各國共同麵對的政策難題,需要不斷尋找兩(liang) 者之間的平衡。
唯一可以確定的是,從(cong) 人類近百年來科技創新與(yu) 倫(lun) 理衝(chong) 突的經驗來看,在科技即將帶來生產(chan) 力革命的前夜,提前思索、討論和商定包容審慎監管的細節,遠比亡羊補牢更好。
□馬爾文(互聯網從(cong) 業(ye) 者)
版權聲明:凡注明“來源:新利平台”或“新利平台文”的所有作品,版權歸高原(北京)文化傳(chuan) 播有限公司。任何媒體(ti) 轉載、摘編、引用,須注明來源新利平台和署著作者名,否則將追究相關(guan) 法律責任。