新利平台 > 即時新聞 > 時政

倫理學視域下的人工智能發展

發布時間:2024-02-23 09:57:00來源: 光明網-《光明日報》

  作者:李誌祥(南京師範大學公共管理學院教授)

  近年來,人工智能技術在諸多領域不斷取得重大突破,其發展速度之快、影響程度之深前所未有,在給現代生活帶來極大便利的同時,也留下了一些可能危及人類生存的重大風險。如何能夠在充分享受科技發展帶來的巨大紅利的同時有效防範其潛在風險,已經成為(wei) 人工智能發展麵臨(lin) 的關(guan) 鍵問題。為(wei) 此,我國先後出台了《新一代人工智能治理原則——發展負責任的人工智能》(2019年)、《新一代人工智能倫(lun) 理規範》(2021年)、《關(guan) 於(yu) 加強科技倫(lun) 理治理的意見》(2022年)和《科技倫(lun) 理審查辦法(試行)》(2023年),力圖通過人工智能與(yu) 倫(lun) 理的有機結合,引導人工智能走上“科技向善”的健康發展道路。人工智能與(yu) 倫(lun) 理的有機結合,可以從(cong) 倫(lun) 理辯護、倫(lun) 理治理和倫(lun) 理創新三個(ge) 維度展開。

  發展人工智能需要理性的倫(lun) 理辯護

  在進入現實生活前,人工智能就以“機器人”形象活躍於(yu) 文學作品之中。無論在舞台劇、科幻小說還是科幻電影中,人工智能都曾被賦予一種由人類創造但反過來傷(shang) 害人類的異化性質。這種將人工智能妖魔化的文學想象,體(ti) 現了人類對於(yu) 人工智能的深層憂慮。究其原因,乃在於(yu) 人工智能可能擁有比人類更為(wei) 強大的力量,進而出現反過來傷(shang) 害人類的巨大風險。在現實生活中,人工智能阿爾法狗戰勝世界圍棋冠軍(jun) ,工業(ye) 機器人搶占人類勞動崗位,大語言模型不斷生成媲美人類專(zhuan) 家的行業(ye) 作品,進一步加劇了人類對人工智能的擔憂,甚至引發了一些抵製人工智能的行為(wei) 。過度擔憂和盲目抵製,可能會(hui) 阻礙人工智能的正常發展,影響人類充分享受現代科技進步帶來的生活便利。要消除這些不必要的擔憂,就需要對人工智能進行理性的倫(lun) 理辯護,確定人工智能的倫(lun) 理正當性。

  人工智能的倫(lun) 理正當性在於(yu) 它能夠造福人類,能夠提升勞動生產(chan) 力以創造人類的幸福生活。與(yu) 其他科技產(chan) 物相比,人工智能具有非常獨特的功能,它能夠模擬人類的智能,既可以進行智能式的計算,也可以完成智能式的動作,其部分體(ti) 力能力(如力量和速度)與(yu) 智力能力(如記憶和計算)甚至可以遠遠超過人類。模擬意味著替代,能夠被人工智能模擬的人類活動也就有可能被替代。因此,人工智能可以作為(wei) 人類勞動的協助者或替代者,廣泛進入各個(ge) 生產(chan) 和生活領域,這樣既可以節省大量的勞動時間,為(wei) 人類提供更多的自由時間,又可以創造更高的勞動效率,為(wei) 人類提供豐(feng) 富的勞動產(chan) 品和便利的社會(hui) 服務。概而言之,能夠提高勞動生產(chan) 力以造福人類,是人工智能獲取倫(lun) 理正當性的現實基礎。

  但可能性並不意味著現實性,人工智能能否實現自己的倫(lun) 理正當性,並不取決(jue) 於(yu) 人工智能自身,而是取決(jue) 於(yu) 人工智能的現實發展是否真正指向其正當性目的。人工智能既有可能實現合目的性發展,提升人類的幸福生活;也有可能步入異化發展道路,破壞人類的根本利益。如果隻看到人工智能的進步性,以超人類主義(yi) 姿態歡呼“超級智能”,要求毫無約束地發展人工智能技術,就有可能危及整個(ge) 人類的生存和發展。反之,如果隻看到人工智能的危險性,堅持拒斥“科技怪物”式的反智主義(yi) ,要求嚴(yan) 格禁止人工智能技術的發展,則有可能導致人類科技創新的停滯。因此,理性的倫(lun) 理辯護應該是辯證的,既要看到人工智能的合目的性,歡迎人工智能發展創造的人類福利;也要看到人工智能的盲目性,警惕人工智能可能帶來的潛在風險。

  發展人工智能需要有效的倫(lun) 理治理

  人工智能是人類創造出來的、為(wei) 人類服務的技術物,它具有強大的技術力量,但並不必然為(wei) 人類服務。人工智能既可能造福人類,也可能傷(shang) 害人類,正如無人轟炸機既可能阻止戰爭(zheng) 也可能殺傷(shang) 平民一樣。從(cong) 目前可預見的情況看,人工智能有可能引發四類主要問題。第一是安全問題,即人工智能的強大力量既可能改善人類生活,也可能危及社會(hui) 發展和人類安全。第二是正義(yi) 問題,即人工智能在能夠提供充裕財富和便利服務的同時,有可能加劇分配不公和群體(ti) 歧視等社會(hui) 正義(yi) 問題。第三是人的發展問題,即人工智能對人類勞動的取代以及對人類能力的延伸增強,有可能阻礙人類能力的全麵發展。第四是自由自主問題,即人工智能替代人類進行決(jue) 策和行動,在減輕人類負擔的同時也壓縮了人類的自由自主空間。要防範這些風險,必須對人工智能進行嚴(yan) 格的規治和約束,使之符合人類現有的倫(lun) 理規範、道德觀念和價(jia) 值取向。

  對人工智能進行倫(lun) 理治理,就是要讓人工智能技術在研發和使用過程中貫徹服務人類這一根本宗旨,以最大限度地造福人類。也就是說,人工智能的發展必須以人類的根本利益為(wei) 中心,必須以人類現有的倫(lun) 理規範和價(jia) 值取向為(wei) 標準。離開了這個(ge) 中心和標準,人工智能的發展就可能誤入歧途。人類基本價(jia) 值共識主要包括三個(ge) 方麵:一是尊重個(ge) 體(ti) 的生命安全與(yu) 自由發展,二是追求人際的公平正義(yi) 與(yu) 仁愛友善,三是強調群體(ti) 的和平穩定與(yu) 繁榮發展。對人工智能進行倫(lun) 理治理,就是要讓人工智能的發展服從(cong) 人類公認的倫(lun) 理規範,促進人類基本價(jia) 值的廣泛實現。

  對人工智能進行倫(lun) 理治理,關(guan) 鍵在於(yu) 人工智能背後的人而不是人工智能本身。人工智能無論擁有多強大的功能,在本質上仍然隻是一種技術物,是由人類創造出來並且受人類支配的技術物。人工智能的自主智能能力並非自然生成,能夠具有什麽(me) 樣的能力,具有多大的能力,由人類而非人工智能決(jue) 定。從(cong) 創造者與(yu) 受造物的責任關(guan) 係來看,人類必須對自己的創造物負責,必須對人工智能的功能負責,必須對人工智能引發的一切後果負責。也就是說,倫(lun) 理治理需要堅持這樣一種核心理念:人工智能引發的社會(hui) 問題首先是“人”的問題,而不是“物”的問題。對人工智能進行倫(lun) 理治理,首先要增強人工智能相關(guan) 人員的責任意識。

  對人工智能進行有效的倫(lun) 理治理,既要防止強調自由放任的技術至上主義(yi) 思想,也要防止追逐私人利益的技術中立主義(yi) 思想。讓人工智能不受任何約束地自由發展,有可能使人工智能走上盲目發展道路,導致人造物奴役人類的異化局麵。讓人工智能服從(cong) 個(ge) 人私利和私人意誌,可能使人工智能走上片麵發展道路,導致人工智能淪為(wei) 部分人的牟利工具。真正合乎倫(lun) 理的、負責任的人工智能,隻能是為(wei) 整個(ge) 人類謀福利的人工智能。

  發展人工智能需要合理的倫(lun) 理創新

  人工智能的問世會(hui) 在一定程度上改變人類的倫(lun) 理生活,衝(chong) 擊現有的道德觀念。一方麵,人工智能作為(wei) 一種超級計算軟件與(yu) 非生物硬件相結合的存在物,既不同於(yu) 人類這種具有生物身體(ti) 的理性存在物,也不同於(yu) 動物這種具有感受能力的非理性存在物。一旦進入道德世界,這種新型存在物具有什麽(me) 樣的道德意義(yi) ,應該享有何種道德地位,這是現有的倫(lun) 理學理論未曾碰到過的新問題,需要進行嚴(yan) 肅認真的思考。另一方麵,人工智能全麵進入生產(chan) 生活領域,必然會(hui) 影響現有的勞動模式和交往方式,甚至會(hui) 形成一些具有全新倫(lun) 理性質的社會(hui) 關(guan) 係。一旦這些變化超出了現有倫(lun) 理學理論的解釋範圍,就需要創新發展倫(lun) 理學理論以給予合理解釋。從(cong) 這個(ge) 意義(yi) 上說,要想充分理解人工智能的道德意義(yi) ,合理應對人工智能帶來的倫(lun) 理變化,就需要進行一定的倫(lun) 理創新,發展與(yu) 人工智能相適應的倫(lun) 理理論和道德觀念。

  基於(yu) 人工智能發展的倫(lun) 理創新首先需要立足人工智能這一獨特的技術物。人工智能不同於(yu) 其他的人造技術物,它具有一定的智能能力和自主能力。盡管人工智能並不具有自己的自由意誌,隻能以設計者、生產(chan) 者和使用者等人類的意誌作為(wei) 意誌,但在諸多人類意誌的控製之下,人工智能仍然擁有一個(ge) 相對狹小的選擇空間,需要其進行自主的行為(wei) 選擇。這種相對狹小的自主選擇空間和相對弱小的自主選擇能力,有可能賦予人工智能行動以一定的道德意義(yi) 。因此,人工智能能否被視為(wei) 一種道德主體(ti) ,是否需要承擔一定的道德責任,可否享有一定的道德權利,都開始成為(wei) 需要嚴(yan) 肅對待的問題,這或許會(hui) 指向一種真正麵向人工智能開放的倫(lun) 理學理論。這同時意味著,我們(men) 需要以人工智能作為(wei) 一個(ge) 全新的參照物,反思現有的道德主體(ti) 理論、道德責任理論、道德行為(wei) 理論、道德評價(jia) 理論以及道德賞罰理論等,將人類對道德本身的理解推向一個(ge) 新高度,這樣才能真正把握人工智能的道德意義(yi) 。

  基於(yu) 人工智能發展的倫(lun) 理創新還需要麵對人工智能帶來的生活變化。人工智能的廣泛應用可能從(cong) 三個(ge) 方麵改變人類的生活。第一,人工智能可以作為(wei) 人類器官的替代者或者增強者,提升人類的生命能力。這就從(cong) 一個(ge) 全新角度重新提出了人的特質問題:麵對人工智能,人之為(wei) 人的特質到底是什麽(me) ?生命能力增強後的人類能否獲得自我同一性?第二,人工智能可以作為(wei) 人類勞動的替代者或協助者,推動機器勞動大規模取代人類勞動,這又從(cong) 一個(ge) 全新角度重新提出了勞動本質問題:勞動對於(yu) 人類的真正意義(yi) 到底是什麽(me) ?由自動化機器生產(chan) 的勞動產(chan) 品應該如何分配?第三,人工智能大規模進入生產(chan) 生活領域,與(yu) 人類形成各種錯綜複雜的關(guan) 係,這就提出了一個(ge) 全新的人機關(guan) 係問題:人類到底應該如何看待和處理與(yu) 人工智能的關(guan) 係?要回答這些問題,就需要對現有的倫(lun) 理學理論進行深入反思,或許需要將倫(lun) 理學理論的根基從(cong) 現有的人—人關(guan) 係擴展至新興(xing) 的人—機關(guan) 係。

  基於(yu) 人工智能發展的倫(lun) 理創新,既要警惕理論上的僵化主義(yi) ,也要警惕理論上的機會(hui) 主義(yi) 。理論上的僵化主義(yi) 者完全固守現有的倫(lun) 理學理論,看不到人工智能帶來的發展機遇,不願意做出任何本質上的理論改變。這有可能導致倫(lun) 理學理論與(yu) 實踐發展脫節,進而弱化倫(lun) 理學理論指導人工智能實踐發展的功能。理論上的機會(hui) 主義(yi) 者完全無視現有的倫(lun) 理學原則,放棄人類長期珍視的基本價(jia) 值,隻追隨實踐發展的現實需要。這有可能導致倫(lun) 理學理論喪(sang) 失其價(jia) 值根基,同樣會(hui) 弱化倫(lun) 理學理論指導實踐發展的功能。合理的倫(lun) 理創新,必須堅守人類基本價(jia) 值共識,根據人工智能的發展實際,不斷創造能夠理解、包容和指導人工智能發展的新倫(lun) 理學理論。

  無論從(cong) 人工智能的健康發展來看,還是從(cong) 人類社會(hui) 的持續發展來看,人工智能都必須與(yu) 倫(lun) 理結合起來。沒有理性的倫(lun) 理辯護,人類難以保持對人工智能發展的正確態度。沒有有效的倫(lun) 理治理,人類難以合理引導人工智能的強大力量。沒有合理的倫(lun) 理創新,人類難以跟上人工智能的發展步伐。隻有將倫(lun) 理辯護、倫(lun) 理治理與(yu) 倫(lun) 理創新結合起來,才能真正確保人工智能向上向善發展,形成科技健康發展與(yu) 社會(hui) 持續進步的雙贏局麵。

  《光明日報》(2024年02月19日 15版)

(責編:李雨潼)

版權聲明:凡注明“來源:新利平台”或“新利平台文”的所有作品,版權歸高原(北京)文化傳(chuan) 播有限公司。任何媒體(ti) 轉載、摘編、引用,須注明來源新利平台和署著作者名,否則將追究相關(guan) 法律責任。