新利平台 > 即時新聞 > 博覽

被指作假、誹謗,ChatGPT可能“吃官司”?

甘甜 發布時間:2023-04-12 08:48:00來源: 中國新聞網

  中新網4月11日電(甘甜)被指杜撰新聞報道、對他人提出誹謗指控,編造虛假期刊文章……風頭正勁的人工智能軟件ChatGPT,給人們(men) 帶來便利的同時,也造成了一些麻煩。

  像ChatGPT這樣的人工智能軟件,究竟將對人類未來產(chan) 生怎樣的影響?擔憂之下,多個(ge) 國家和機構接連采取措施,加強對ChatGPT的監管。

  造假誹謗?

  ChatGPT或惹上官司

  具備語言理解、生成、知識推理能力的ChatGPT,由美國人工智能研究實驗室OpenAI在2022年11月30日推出。推出兩(liang) 個(ge) 月,即擁有1億(yi) 活躍用戶,並帶動了人工智能的新熱潮。

  然而,知名度越來越高的同時,ChatGPT卻惹上了不小的麻煩。

  第一步:設定目標

  AI係統須預先設定目標函數,大多數LLM模型的基本目標函數為(wei) :給定一個(ge) 文本序列,猜測接下來的內(nei) 容。

  第二步:收集大量數據

  大量收集訓練數據。理想情況下,通常從(cong) 互聯網上搜集數十億(yi) 個(ge) 頁麵作為(wei) 數據庫,如博客文章、推文、維基百科和新聞報道等。

  第三步:建立神經網絡

  接下來,組裝人工智能的“大腦”:即AI的神經網絡係統。這是一個(ge) 由相互連接的節點(或“神經元”)組成的複雜網絡,用於(yu) 處理和存儲(chu) 信息。

  第四步:訓練神經網絡

  通過訓練,AI模型學會(hui) 分析數據,識別不同模式和關(guan) 係,學會(hui) 如何構建有意義(yi) 的信息。相關(guan) 訓練耗時幾天甚至幾周,耗費巨大的計算能力。

  第五步:微調模型

  一個(ge) 大型語言模型被訓練出來,需要為(wei) 特定的工作或領域進行校準,通常由人類進行微調。

  第六步:上線啟動

  經過訓練和微調後,就可以開始使用。

  謹慎使用

  多國收緊對ChatGPT監管

  “人工智能係統可能並不穩定且不可預測,甚至造成危險。”《紐約時報》提醒稱,人們(men) 使用ChatGPT時,仍需要多多當心。為(wei) 此,近段時間以來,多國也收緊了對ChatGPT的監管。

  ·3月31日,意大利個(ge) 人數據保護局宣布,暫時禁止使用ChatGPT,限製OpenAI公司處理意大利用戶信息,並開始立案調查。德國據稱也在考慮是否效仿意大利。

  ·美歐多所大學已禁止學生使用ChatGPT,紐約市教育局禁止當地的公立學校電腦以及網絡使用ChatGPT。

  ·美國部分律所、摩根大通銀行等已限製使用ChatGPT。

  ·韓國三星電子員工疑似因使用ChatGPT,泄露公司機密。為(wei) 杜絕類似事故再發生,三星要求員工注意ChatGPT的使用方式,並正在製定相關(guan) 保護措施。

(責編: 王東)

版權聲明:凡注明“來源:新利平台”或“新利平台文”的所有作品,版權歸高原(北京)文化傳(chuan) 播有限公司。任何媒體(ti) 轉載、摘編、引用,須注明來源新利平台和署著作者名,否則將追究相關(guan) 法律責任。