新利平台 > 即時新聞 > 博覽

陳晨:生成式AI是不能輸掉的“戰役”

陳晨 發布時間:2023-04-24 09:10:00來源: 中國新聞網

  生成式人工智能治理規則需平衡利弊、思深憂遠

  4月11日,中國國家網信辦發布《生成式人工智能服務管理辦法(征求意見稿)》(下稱《意見稿》),向社會(hui) 公開征求意見。4月12日,美國商務部就ChatGPT等AI大模型監管措施公開征求意見,世界科技巨頭在不斷推出新品之際,各國監管部門的步伐也正迎頭趕上,逐步開啟對人工智能生成式內(nei) 容的監管,未來的監管政策成為(wei) 中美競爭(zheng) 的關(guan) 鍵變量。

  美國監管政策的變化

  美國國家電信和信息管理局公開征求的內(nei) 容方麵,監管政策意見主題主要包括:人工智能開發公司及其企業(ye) 客戶應該進行什麽(me) 樣的信任和安全測試;進行審計和評估需要什麽(me) 樣的數據訪問;監管機構和其他參與(yu) 者如何激勵和支持人工智能係統的可信保證以及其他形式的問責製;不同行業(ye) 可能需要哪些不同的監管方法——如就業(ye) 或醫療保健。

  美國國家電信和信息管理局(NTIA)負責人Alan Davidson表示,在新技術發展的同時,也要保證其安全性、可靠性。新的大語言模型功能非常強大,它們(men) 確實會(hui) 產(chan) 生一些有害的內(nei) 容。新的監管政策不僅(jin) 可以降低產(chan) 品的安全性,也可以讓企業(ye) 以更加安全的方式發展創新技術。

  美國商務部表示,將在接下來的 60 天內(nei) 就人工智能審計、風險評估和其他措施的可能性征求意見,這些措施可以緩解消費者對這些新技術產(chan) 品的擔憂。從(cong) 美國國家電信和信息管理局的AI監管意見來看,其政策是目標是支持AI審計、評估、認證和其他機製的發展,以贏得人們(men) 對AI係統的信任。通過監管,讓人工智能企業(ye) 在政府的指導下,能以更安全的方式開展技術創新。

  中國監管政策走出重要一步

  我國對人工智能一直持鼓勵發展的態度。國務院曾於(yu) 2017年印發了《新一代人工智能發展規劃》,提出了人工智能發展的戰略目標;2022年,科技部等六部門印發了《關(guan) 於(yu) 加快場景創新以人工智能高水平應用促進經濟高質量發展的指導意見》,明確提出鼓勵在重點行業(ye) 深入挖掘人工智能技術應用場景。本次網信辦發布的《意見稿》是國家宏觀指導政策首次進入法規層麵。

  《意見稿》進一步明確“鼓勵優(you) 先采用安全可信的軟件、工具、計算和數據資源”。安全可信的網絡產(chan) 品和服務是《關(guan) 鍵信息基礎設施安全保護條例》《網絡數據安全管理條例(征求意見稿)》對於(yu) 關(guan) 鍵信息基礎設施運營者和重要數據處理者的強製要求,雖然《意見稿》的口徑為(wei) “鼓勵”宣貫,但未來相關(guan) 監管是否會(hui) 對如何判斷網絡產(chan) 品和服務的安全可信發布係列規則或者標準,尚待進一步觀察。

  比如,在訓練數據方麵,《意見稿》對預訓練數據提出了更多的要求,要求保證訓練數據的“真實性、準確性、客觀性、多樣性”。清華大學中國發展規劃研究院執行副院長董煜指出,大模型離不開數據的訓練,如果對於(yu) 訓練數據作出過於(yu) 嚴(yan) 苛的規定,將阻礙大模型的發展速度。數據訓練的規模會(hui) 決(jue) 定人工智能生成內(nei) 容的質量,數據的數量和質量比算法和模型更重要,美國可以做出ChatGPT,很大程度上在於(yu) 美國對於(yu) 全世界數據的收集和掌握。從(cong) 歐盟、美國、韓國、日本等國家針對預訓練數據合法性的要求來看,為(wei) 了支持大模型的發展,他們(men) 允許使用各種出版物對生成式人工智能訓練數據進行分析。因此,如果由於(yu) 真實性、版權等問題無法使用相關(guan) 訓練數據,將對人工智能技術發展帶來不利影響。

  生成式AI是不能輸掉的“戰役”

  當前中美競爭(zheng) 的形勢十分激烈,從(cong) 某種意義(yi) 上說,生成式AI對未來的技術麵貌具有相當的重塑力,這一認知已達成共識。國家高度重視科技進步,視科技創新為(wei) 高質量發展的生命線。現階段生成式AI在中外監管思路的明顯區別是,美歐各國側(ce) 重從(cong) 數據安全、數據保護的角度來介入和推動監管落地,中國則是一種綜合治理的思路,強調權益保護、數據治理、內(nei) 容治理等多個(ge) 維度。

  監管的目的顯然不是要限製人工智能工具的開發,而是要推動它的健康發展。中國的生成式人工智能產(chan) 品和服務,百度的文心一言已經麵世,其他大模型也在發布或是處在測試階段。受限於(yu) 有限的中文數據,整體(ti) 表現與(yu) ChatGPT有一定差距,如何幫它們(men) 健康地強大起來,這是對包括監管體(ti) 係在內(nei) 的整個(ge) 中國社會(hui) 的考驗。

  通過《意見稿》我們(men) 不難發現,這一文件的出台無疑為(wei) 我國算法相關(guan) 產(chan) 業(ye) 的發展提供了新的指導。然而,我們(men) 也注意到,該辦法中的一些細節仍有待進一步完善,有關(guan) 問題仍需要立法者澄清。例如針對《意見稿》第九條,北京大學法學院薛軍(jun) 教授指出,生成式人工智能服務,在某些特定場景下更類似於(yu) 搜索服務,本質是一種智能檢索,應當允許用戶以遊客的身份使用。這是因為(wei) ,生成式人工智能服務可以根據用戶提供的查詢、問題或任務,自動產(chan) 生相應的答案、方案或輸出。這個(ge) 過程類似於(yu) 搜索引擎對關(guan) 鍵詞進行搜索並返回相關(guan) 結果的過程,當然,還可以把搜索引擎與(yu) 其結合生成更加動態、個(ge) 性化、甚至創造性的輸出。微軟將ChatGPT問答模型遷入必應搜索引擎,可以讓更多的用戶通過輸入問題獲得答案,從(cong) 而提高信息獲取的效率和質量,整個(ge) 過程並不需要用戶的登錄或驗證。

  未來隨著AI技術的發展,中國在生成式AI和大模型方麵是否會(hui) 麵臨(lin) 類似芯片的卡脖子局麵,我們(men) 不得而知。為(wei) 了不陷入被動局麵,打造有利於(yu) 國內(nei) 生成式AI發展的政策環境在中美競爭(zheng) 中扮演著至關(guan) 重要的角色。

  陳晨 中國法學會(hui) 網絡與(yu) 信息法學研究會(hui) 常務理事

(責編: 王東)

版權聲明:凡注明“來源:新利平台”或“新利平台文”的所有作品,版權歸高原(北京)文化傳(chuan) 播有限公司。任何媒體(ti) 轉載、摘編、引用,須注明來源新利平台和署著作者名,否則將追究相關(guan) 法律責任。