複旦教授從哲學角度看ChatGPT:或加劇人類“自欺”
中國青年報客戶端訊(劉玥 殷夢昊 中青報·中青網記者 王燁捷)近日,複旦大學慶祝建校118周年相輝校慶係列學術報告拉開帷幕。複旦大學哲學學院教授徐英瑾以“從(cong) 人工智能哲學的角度看ChatGPT”為(wei) 題登台開講。徐英瑾從(cong) 哲學角度分析了ChatGPT這一技術的主要弊端——將“常人”的意見予以全麵的機械化複製,從(cong) 而加劇人類“自欺”現象的泛濫。
徐英瑾是一名博士生導師,兼任中國知識論專(zhuan) 業(ye) 委員會(hui) 副秘書(shu) 長、中國現代外國哲學專(zhuan) 業(ye) 委員會(hui) 理事等。他主持了國家社科項目“基於(yu) 信息技術哲學的當代認識論研究”等多項國家級、省部級項目,主要從(cong) 事人工智能哲學、英美分析哲學的研究。
“理解ChatGPT的本質並不困難。”徐英瑾介紹,ChatGPT的英文全稱是Chat Generative Pre-trained Transformer,其中Chat(聊天)一詞,在人工智能領域地位特殊,這源於(yu) 圖靈測驗的一項發明——早已出現的“聊天盒(chatbox)”技術。而ChatGPT作為(wei) 一種大型語言模型,是“傳(chuan) 統神經元網絡技術+深度學習(xi) 技術”的進階版,通俗來說,就是通過數學建模建造出一個(ge) 簡易的人工神經元網絡結構。
盡管ChatGPT的語言通順程度和機器翻譯水平令人讚歎,但徐英瑾指出,人工智能的進步,實際上是統計學意義(yi) 上的進步,是通過不斷迭代的大規模數據集和人工語料訓練後“野蠻投入”的結果,因此,縱使ChatGPT看到“路遙知馬力”能接上“日久見人心”,但它並不能真正理解中文詩詞的精妙內(nei) 涵。
從(cong) 海德格爾哲學的角度看,這種人工智能係統訓練方式將不得不把“常人”的意見加以建製化與(yu) 機械化。徐英瑾說,從(cong) 機器的視角看,一個(ge) 正確的意見就是被大多數人所認可的意見,因此,少數“異類”提出的“離經叛道”之說在技術上就會(hui) 被過濾掉。
“這需要我們(men) 的高度警惕。”徐英瑾說,假如ChatGPT技術在托勒密的時代就出現,哥白尼的“日心說”恐怕就會(hui) 永遠被判定為(wei) 錯誤答案。
而由於(yu) 人工智能訓練與(yu) 當下總是存在時間差,“無法麵對未來”是ChatGPT這類人工智能的最大瓶頸所在。徐英瑾表示,過度依賴ChatGPT,可能會(hui) 讓人喪(sang) 失反思力與(yu) 對未來的把握能力,陷入過度“自欺”的狀態。
人工智能未來到底走向何處?在他看來,要想真正走通人工智能道路,需要在結合節儉(jian) 性算法與(yu) 推理引擎的基礎上,兼顧哲學思維帶來的“破”與(yu) “立”,“大數據的訓練很難讓機器對語境形成精準識別,如何突破語料的偽(wei) 裝,真正識別人類的精神內(nei) 核,人工智能仍在路上。”
版權聲明:凡注明“來源:新利平台”或“新利平台文”的所有作品,版權歸高原(北京)文化傳(chuan) 播有限公司。任何媒體(ti) 轉載、摘編、引用,須注明來源新利平台和署著作者名,否則將追究相關(guan) 法律責任。