新利平台 > 即時新聞 > 博覽

美媒:OpenAI發布新安全指南 賦予董事會否決權

發布時間:2023-12-20 14:32:00來源: 中國新聞網

  中新網12月19日電 據彭博社報道,當地時間18日,美國人工智能公司OpenAI在其網站上公布一項安全指南,加強其內(nei) 部安全流程,並賦予董事會(hui) 對高風險人工智能的否決(jue) 權。

  據報道,當天,OpenAI發表一係列安全指南,闡釋公司計劃如何應對最強大人工智能(AI)係統可能引起的極端風險。

  在該指南下,OpenAI隻會(hui) 在確定最新技術的安全性之後才會(hui) 開始運用。公司將成立一個(ge) 顧問團隊以審核安全報告,再轉交公司高層和董事會(hui) 。雖然公司領導負責做決(jue) 策,董事會(hui) 可推翻決(jue) 定。

  OpenAI在2023年10月宣布成立“備災小組”,並會(hui) 持續評估它的AI係統在網絡安全、化學威脅、核威脅和生物威脅等四大範疇的表現,同時減低科技可能帶來的任何危害。

  具體(ti) 來說,公司檢查的是定義(yi) 為(wei) :能造成上億(yi) 美元經濟損失,或導致許多個(ge) 人受傷(shang) 害或死亡的“災難性”風險。

  “AI本身沒有好壞,我們(men) 正在塑造它。”領導“備災小組”的亞(ya) 曆山大·馬德裏表示,他的團隊會(hui) 每月提交報告給內(nei) 部新成立的安全顧問團隊,再由阿爾特曼與(yu) 公司董事會(hui) 判斷分析團隊所提交的建議。

  馬德裏希望,其他公司能利用OpenAI的指引,來評估旗下AI模型的潛在風險。

  2023年3月,包括馬斯克、蘋果聯合創始人斯蒂夫·沃茲(zi) 尼亞(ya) 克在內(nei) 的1000多名人工智能專(zhuan) 家和行業(ye) 高管簽署了一份公開信,他們(men) 在公開信中呼籲暫停高級人工智能開發,直至此類設計的共享安全協議經由獨立專(zhuan) 家開發、實施和審核。

(責編: 王東)

版權聲明:凡注明“來源:新利平台”或“新利平台文”的所有作品,版權歸高原(北京)文化傳(chuan) 播有限公司。任何媒體(ti) 轉載、摘編、引用,須注明來源新利平台和署著作者名,否則將追究相關(guan) 法律責任。