新利平台 > 即時新聞 > 時政

規範人工智能須“防”“護”並重

發布時間:2023-03-06 10:17:00來源: 經濟日報

  作者:楊福忠

  最近,人工智能產(chan) 品ChatGPT橫空出世。由於(yu) 具有語言理解和文本生成能力,特別是能夠從(cong) 事論文寫(xie) 作、翻譯以及製作司法裁判文書(shu) 等工作,該產(chan) 品引發了人們(men) 對人工智能在經濟社會(hui) 發展中應用的廣泛討論。與(yu) 此同時,我國工業(ye) 和信息化部等部門聯合印發了《“機器人+”應用行動實施方案》,明確了人工智能機器人應用的10大重點領域,提出推動各行業(ye) 、各地方結合行業(ye) 發展階段和區域發展特色,開展“機器人+”應用創新實踐;搭建國際國內(nei) 交流平台,形成全麵推進機器人應用的濃厚氛圍。這都預示著人工智能加快應用的時代正在到來。

  人工智能作為(wei) 一種戰略性新興(xing) 技術,其蓬勃發展和廣泛應用,將塑造和賦能越來越多的行業(ye) 、領域和應用場景,形成“人工智能賦能+”效應,為(wei) 經濟社會(hui) 發展注入強勁動能。不過,人工智能應用是一把“雙刃劍”,它在賦能經濟社會(hui) 發展的同時也可能引發風險。一是新型法律糾紛風險,比如人工智能侵權糾紛、著作權糾紛、人工智能技術濫用帶來的權益糾紛等。二是道德風險。人工智能不能進行價(jia) 值判斷,但它是在研發人員價(jia) 值觀念支配下設計開發出來的,容易受研發者秉持的價(jia) 值觀念影響。三是人工智能技術不完善造成的社會(hui) 公害風險,比如算法歧視、泄露隱私信息等。對此,必須加強對人工智能潛在風險的研判和防範,確保人工智能安全、可靠、可控。

  在規範策略上,應堅持規製與(yu) 保障並重。一項新技術從(cong) 研發到進入市場,再到融入社會(hui) 生產(chan) 、生活,產(chan) 生風險是難以避免的,不能因為(wei) 風險而放棄新技術的研發和應用。理想目標應是把風險最小化,把技術獲利最大化。這就要求法律和政策做到規製與(yu) 保障並重。要通過法律與(yu) 政策手段解決(jue) 人工智能引發的風險,實現有序發展;同時,要確保人工智能創新發展,更好賦能經濟社會(hui) 。不過,規製與(yu) 保障之間可能存在價(jia) 值衝(chong) 突,規製不當可能扼殺人工智能的創新發展,必須審慎地處理好二者之間的關(guan) 係。

  在規範手段上,注重軟性引導與(yu) 硬性約束同向發力。應根據人工智能應用產(chan) 生風險的原因,有針對性地采用不同規範手段。對人工智能因技術不完善引發的風險,主要依靠軟性規範。軟性規範具有倡導性、靈活性強的特點。可以通過製定指南或行業(ye) 自律等方式引導技術向善,防範潛在風險發生。這是防範人工智能風險不可或缺的手段。

  對濫用人工智能技術引發的風險,則要依靠硬性約束。硬性約束規定明確,可操作性強,能夠為(wei) 人們(men) 如何行為(wei) 提供具體(ti) 指引,並且有強製力保障。隨著人工智能廣泛應用於(yu) 各行業(ye) ,濫用人工智能技術多發頻發,這就需要通過硬性約束,規範治理人工智能濫用問題。目前,我國專(zhuan) 門針對人工智能技術濫用而出台的法律數量少、位階低,亟需加大立法步伐。

  在規範方式上,強化政府與(yu) 企業(ye) 治理協同,相輔相成,相互保障。具體(ti) 而言,政府應扮演人工智能發展政策的製定者、治理議程的設置者以及法律法規實施的監督者等角色。企業(ye) 是人工智能技術、產(chan) 品或服務研發和使用的主體(ti) ,也是發展人工智能的責任主體(ti) ,必須擔負起人工智能風險防範的社會(hui) 責任。應加強人工智能技術企業(ye) 間的合作,依靠技術手段防範人工智能風險。(楊福忠)

(責編:李雨潼)

版權聲明:凡注明“來源:新利平台”或“新利平台文”的所有作品,版權歸高原(北京)文化傳(chuan) 播有限公司。任何媒體(ti) 轉載、摘編、引用,須注明來源新利平台和署著作者名,否則將追究相關(guan) 法律責任。