複旦MOSS距離ChatGPT還有多遠?
◎侯樹文 本報記者 王 春
最近上熱搜的MOSS,不是《流浪地球2》中量子計算機550W給自己起的新名字,而是複旦大學計算機科學技術學院教授邱錫鵬團隊最新發布的國內(nei) 第一個(ge) 對話式大型語言模型,也被稱作中國版ChatGPT。
2月20日,MOSS悄然上線,邱錫鵬團隊發布至公開平台(https://moss.fastnlp.top/),邀公眾(zhong) 參與(yu) 內(nei) 測。但是由於(yu) 瞬時訪問火爆,計算資源無法支撐,內(nei) 測窗口已暫時關(guan) 閉。
悄然上線,又匆匆關(guan) 閉,MOSS這一“快閃”的舉(ju) 動,讓它的亮相飽受爭(zheng) 議。
科技日報記者在瀏覽器上輸入公開平台的網址,其中對MOSS這樣介紹:一種像ChatGPT的對話語言模型。MOSS能夠按照用戶的指示執行各種自然語言任務,包括問答、生成文本、總結文本、生成代碼等。MOSS還能夠挑戰不正確的前提,並且拒絕不適當的請求。
那麽(me) 相對於(yu) 美國OpenAI的ChatGPT,中國的MOSS有何特別之處呢?記者在主頁看到了這樣的介紹:MOSS和ChatGPT的區別——如MOSS的參數量比ChatGPT少得多;MOSS通過與(yu) 人類和其他AI模型交談來學習(xi) ,而ChatGPT是使用來自人類反饋的強化學習(xi) (RLHF)進行培訓;MOSS將是開源的,以促進未來的研究,但ChatGPT可能不是這樣。
據介紹,MOSS開發的基本步驟與(yu) ChatGPT一樣,包括自然語言模型的基座訓練、理解人類意圖的對話能力訓練兩(liang) 個(ge) 階段。作為(wei) MOSS主要作者之一,邱錫鵬表示:“MOSS與(yu) ChatGPT的差距主要在自然語言模型基座預訓練這個(ge) 階段。MOSS的參數量比ChatGPT小一個(ge) 數量級,在任務完成度和知識儲(chu) 備量上,還有很大提升空間。”
ChatGPT語言模型的參數量高達1750億(yi) ,而在它問世前,世界上最大的語言模型是微軟開發的Turing-NLG,其參數量為(wei) 170億(yi) 。自去年11月30日正式發布以來,ChatGPT上線5天,注冊(ce) 用戶就突破百萬(wan) 。目前,其用戶規模已達到1億(yi) ,成為(wei) 互聯網發展史上用戶增長最快的消費級應用。
在關(guan) 閉內(nei) 測之後,MOSS官網發布公告稱,MOSS還是一個(ge) 非常不成熟的模型,距離ChatGPT還有很長的路要走。“我們(men) 是一個(ge) 進行學術研究的實驗室,無法做出和ChatGPT能力相近的模型。”科研團隊相關(guan) 負責人指出,當前版本的MOSS表現不夠穩定,部分回答或存在事實差錯、邏輯不順等問題。不僅(jin) 如此,MOSS的英文回答水平較中文回答水平更高,這主要受到其模型基座的單詞收錄量影響,MOSS學習(xi) 了3000多億(yi) 個(ge) 英文單詞,但中文詞語隻學了約300億(yi) 個(ge) 。
複旦大學計算機科學技術學院教授張奇是推出MOSS的複旦大學NLP實驗室核心成員之一。對於(yu) ChatGPT背後模型所擁有的1750億(yi) 的參數規模,他在一次公開討論中表示,學校這類機構很難去完成,目前百億(yi) 級的規模都已經非常困難。
按照ChatGPT目前開源的最簡單複現版本、最便宜模式去計算,要做到1750億(yi) 的參數規模,需要大概6000萬(wan) 元的硬件成本,同時運算3.5個(ge) 月。這還是所有事情都做對的情況,如中間有參數調整,或者想加速訓練過程,就需要更高規模的投資。
歸根到底還是研發投入的問題。而除了學術界,國內(nei) 科技企業(ye) 也紛紛摩拳擦掌開發自己的ChatGPT:原美團聯合創始人王慧文近日明確表示,要“組隊擁抱新時代,打造中國OpenAI”;百度此前宣布將在3月上線百度版ChatGPT——文心一言(英文名為(wei) ERNIE Bot);阿裏達摩院正在研發類ChatGPT的對話機器人,目前已開放給公司內(nei) 員工測試;科大訊飛也表示,Al學習(xi) 機將成為(wei) 公司類ChatGPT技術率先落地的產(chan) 品……
《科技日報》2023年2月23日第02版
版權聲明:凡注明“來源:新利平台”或“新利平台文”的所有作品,版權歸高原(北京)文化傳(chuan) 播有限公司。任何媒體(ti) 轉載、摘編、引用,須注明來源新利平台和署著作者名,否則將追究相關(guan) 法律責任。