新利平台 > 即時新聞 > 國內

(經濟觀察)如何給人工智能發展勒好韁繩?

發布時間:2024-03-26 11:38:00來源: 中國新聞網

  中新社北京3月25日電 (王夢瑤)當前,人工智能成為(wei) 各國發展重點,如何與(yu) 人工智能共存,並在保證其安全可控的前提下更好造福人類社會(hui) ,成為(wei) 全球共同挑戰。

  24日,政界、學界、企業(ye) 界人士齊聚中國發展高層論壇“人工智能發展與(yu) 治理專(zhuan) 題研討會(hui) ”,共商人工智能安全治理。

  北京智源研究院創始人、創始理事長張宏江用“震撼”一詞形容Sora。

  他表示,Sora可以根據文字提供一段現實世界無法拍攝出來的逼真場景,多模態大模型還可以通過“櫻花和雪天無法同時出現”以及雪片的均勻程度判斷視頻是否由人工生成,甚至可以思考、推理而非以往機械式地執行命令。

  “人類做出的最偉(wei) 大的發明就是人工智能,毋庸置疑,它也是最具風險和最危險的創新。”福特斯克金屬集團執行董事長安德魯·福瑞斯特表示,人類的DNA幾十年甚至幾百年才能有一些改善,但是AI卻能以光速不斷完善。

  “AI的學習(xi) 能力超過人類的平均學習(xi) 能力”,張宏江同樣表示,人類的學習(xi) 能力是一條平緩的直線,但是機器的學習(xi) 能力是一條指數曲線,兩(liang) 線相交後人類的學習(xi) 能力將落後於(yu) 機器。更可怕的是,當係統本身有能力自我改善時,可能會(hui) 帶來全球性的災難後果,他提醒。

  香港中文大學(深圳)前海國際事務研究院院長、廣州粵港澳大灣區研究院理事長鄭永年則拿原子彈進行類比,稱原子彈是人類掌握的第一個(ge) 自我毀滅的工具,“我們(men) 現在又多了一樣”,“如果人工智能和核武器結合起來會(hui) 更糟糕”。

  如何避免這種災難性後果,給人工智能發展勒好韁繩?這個(ge) 問題顯得比以往任何時候都更為(wei) 重要。

  Verimag實驗室創始人、2007年圖靈獎得主約瑟夫·希發基思直言,一些國際會(hui) 議正在討論建立全球監管框架的問題,但達成全球人工智能監管框架的機會(hui) 比較渺茫。

  然而近期達成的《北京 AI安全國際共識》在人工智能監管方麵仍取得了可喜突破。張宏江強調,最重要的是劃出了安全紅線:人工智能不能自主複製或改進,不能尋求權力,不能協助不良行為(wei) ,尤其是大規模殺傷(shang) 性武器、生化武器和製造大規模網絡災難,不能欺騙人類,這些紅線不可逾越。

  清華大學智能產(chan) 業(ye) 研究院院長、中國工程院院士張亞(ya) 勤的建議則更趨具體(ti) ,他建議將機器人與(yu) 其背後的人或公司關(guan) 聯,以便追溯實體(ti) 責任,同時建立監管分級體(ti) 製,根據風險大小確定不同程度的監管標準。

  持續深化人工智能安全治理,合作的重要性被反複提及。

  鄭永年稱,美國和中國的人工智能發展各有比較優(you) 勢,在治理方麵需要兩(liang) 個(ge) 國家進行合作。

  中國科學技術部副部長吳朝暉也在發言中指出,世界各國應攜手一道,以高度負責任的態度推動人工智能的發展,堅持智能向善、智能向上,確保人工智能始終處於(yu) 人類的控製之下,從(cong) 而實現安全、可靠、可控。(完)

(責編:陳濛濛)

版權聲明:凡注明“來源:新利平台”或“新利平台文”的所有作品,版權歸高原(北京)文化傳(chuan) 播有限公司。任何媒體(ti) 轉載、摘編、引用,須注明來源新利平台和署著作者名,否則將追究相關(guan) 法律責任。