新利平台 > 即時新聞 > 博覽

美媒:科技行業領袖警告AI可能給人類帶來“滅絕風險”

發布時間:2023-06-02 09:15:00來源: 中國新聞網

  中新網6月1日電 據美國《紐約時報》報道,5月30日,超過350名人工智能領域的行業(ye) 高管、研究人員和工程師簽署了一封公開信,他們(men) 在信中警告稱,AI可能給人類帶來“滅絕風險”。

  這封公開信隻有一句話的聲明:“減輕人工智能帶來的滅絕風險,應該成為(wei) 全球的優(you) 先事項,就像應對其他社會(hui) 規模的風險——如大流行病和核戰爭(zheng) 一樣。”

  該公開信由非營利組織人工智能安全中心(Center for AI Safety)發表,350多名簽署者中包括三家領先人工智能公司的高管:OpenAI首席執行官山姆·阿爾特曼,穀歌DeepMind首席執行官傑米斯·哈薩比斯,以及Anthropic首席執行官達裏奧·阿莫代伊。

  《紐約時報》稱,最近,大型語言模型,即ChatGPT和其他聊天機器人使用的人工智能係統所取得的進展,引發了人們(men) 的擔憂。人們(men) 擔心,人工智能有可能很快就會(hui) 被大規模用於(yu) 傳(chuan) 播錯誤信息和宣傳(chuan) ,或者可能消除數百萬(wan) 白領的工作。

  5月,阿爾特曼、哈薩比斯和阿莫代伊曾與(yu) 美國總統拜登和副總統哈裏斯碰麵,討論人工智能的監管問題。在會(hui) 後的參議院證詞中,阿爾特曼警告,先進人工智能係統的風險已經嚴(yan) 重到需要政府幹預的程度,同時,他呼籲對人工智能的潛在危害進行監管。

  此前,阿爾特曼和OpenAI的另外兩(liang) 名高管提出了幾種負責任地管理強大人工智能係統的方法。他們(men) 呼籲領先的人工智能製造商進行合作,對大型語言模型進行更多技術研究,並成立一個(ge) 類似於(yu) 國際原子能機構的國際人工智能安全組織。

  阿爾特曼還表示,支持製定規則,要求大型尖端人工智能模型的製造者,注冊(ce) 政府頒發的許可證。

  “我認為(wei) 如果這項技術出了問題,它可能會(hui) 大錯特錯。”阿爾特曼告訴參議院小組委員會(hui) 。“我們(men) 希望與(yu) 政府合作,防止這種情況發生。”

  據報道,今年3月,包括埃隆·馬斯克在內(nei) 的1000多名科技領袖、技術人員和研究人員簽署了另一封公開信,呼籲暫停開發最大的人工智能模型六個(ge) 月,理由是擔心“開發和部署更強大數字思維的競賽失控”。

(責編: 王東)

版權聲明:凡注明“來源:新利平台”或“新利平台文”的所有作品,版權歸高原(北京)文化傳(chuan) 播有限公司。任何媒體(ti) 轉載、摘編、引用,須注明來源新利平台和署著作者名,否則將追究相關(guan) 法律責任。