讓科技倫理建設為人工智能健康發展護航
【聚焦科技倫(lun) 理】
◎陳小平
當前,加強人工智能領域科技倫(lun) 理建設的必要性、緊迫性和原則規範已成共識。前不久,《科技倫(lun) 理審查辦法(試行)》(以下簡稱《審查辦法》)的正式發布,標誌著我國科技倫(lun) 理建設全麵進入治理階段,對於(yu) 推動我國人工智能等領域的健康發展和負責任創新具有重要的現實意義(yi) 。
現階段人工智能倫(lun) 理審查麵臨(lin) 諸多挑戰
現階段人工智能科技活動倫(lun) 理審查工作重點和突出難點可歸納為(wei) 以下幾個(ge) 方麵。
一是正確判斷科技活動是否屬於(yu) 倫(lun) 理審查範圍。《審查辦法》第二條明確規定了科技活動的審查範圍,從(cong) 內(nei) 容上看主要考慮的是受試者的合法權益以及科技活動可能對生命、生態、公共秩序、社會(hui) 發展等造成的倫(lun) 理風險。該文件是科技倫(lun) 理審查的通用性規定,尚未對每一項具體(ti) 科技活動是否屬於(yu) 審查範圍作出規定。因此,科技活動承擔單位的科技倫(lun) 理審查委員會(hui) (可能還有承擔專(zhuan) 家複核的機構)需要結合實際情況,細化本單位的科技倫(lun) 理審查範圍,同時根據《審查辦法》第九條製定科技倫(lun) 理風險評估辦法,指導科研人員開展科技倫(lun) 理風險評估,按要求申請倫(lun) 理審查。目前,雖然我國人工智能學界、業(ye) 界和管理機構對倫(lun) 理風險的認識正在提升,但風險判斷能力和水平滯後於(yu) 認識程度的提升,如何作出正確判斷將是一項新挑戰。
二是恰當把握審查內(nei) 容和審查尺度。《審查辦法》第十五條對科技倫(lun) 理審查內(nei) 容作出了明確的規定,特別對涉及個(ge) 人隱私數據等的科技活動提出了要求,與(yu) 個(ge) 人信息保護法、數據安全法等進行了很好的銜接。但在實際工作中,還需要製定可操作的審查細則。此外,《審查辦法》提出,地方、相關(guan) 行業(ye) 主管部門或科技類社會(hui) 團體(ti) 可以製定或修訂本地方、本係統、本領域的科技倫(lun) 理審查細則、具體(ti) 規範和指南。今年2月,國家衛健委、教育部、科技部等製定了《涉及人的生命科學和醫學研究倫(lun) 理審查辦法》,對生命科學和醫學領域的研究作了更詳細的規定,而人工智能領域尚缺少更具體(ti) 的規定,因此人工智能倫(lun) 理審查實施細則的製定應是下一步重點工作之一,並且要在審查實踐中逐步完善。在實施細則的設置中,如何恰當把握審查尺度將麵臨(lin) 挑戰,容易出現尺度過鬆或過嚴(yan) 的現象,進而對後續的倫(lun) 理審查產(chan) 生係統性影響。如果尺度過鬆,有可能導致一些存在倫(lun) 理風險的科技活動倫(lun) 理審查不全麵,從(cong) 而留下倫(lun) 理風險隱患;如果尺度過嚴(yan) ,可能妨礙科技活動的正常推進,降低國家科技進步和經濟、社會(hui) 發展的速度。
三是加強科技倫(lun) 理風險預警與(yu) 跟蹤研判。《審查辦法》規定,對可能產(chan) 生較大倫(lun) 理風險挑戰的新興(xing) 科技活動實施清單管理。清單的製定涉及對倫(lun) 理風險的預測,這種預測往往是非常困難的,對人工智能長期社會(hui) 效應的分析、預測尤其困難。因此,清單的滯後性將持續存在。尤其需要警覺的是,某些倫(lun) 理後果無法通過事後治理加以消除,或事後治理的代價(jia) 過大。因此,清單的動態調整機製尤為(wei) 重要。在對較高風險的科技活動的倫(lun) 理風險防控上,要堅持《關(guan) 於(yu) 加強科技倫(lun) 理治理的意見》提出的敏捷治理要求,加強科技倫(lun) 理風險預警與(yu) 跟蹤研判,及時動態調整治理方式和倫(lun) 理規範,快速靈活應對科技創新帶來的倫(lun) 理挑戰。
多措並舉(ju) 推動人工智能倫(lun) 理審查落到實處
人工智能領域的倫(lun) 理審查是一項新事物,要求科技活動的承擔者、倫(lun) 理委員會(hui) 委員和工作人員、參與(yu) 複核的專(zhuan) 家和其他工作人員等參與(yu) 《審查辦法》實施的人員認真學習(xi) 、深刻理解《審查辦法》及其他相關(guan) 政策規定,掌握背景知識,不斷在實踐中提高倫(lun) 理審查的能力。
首先,要提高參與(yu) 《審查辦法》實施的人員對人工智能的認識水平。當前,人們(men) 對於(yu) 人工智能的認識仍存在不少誤區,不少人錯誤地認為(wei) 人工智能與(yu) 人類智能是本質相同的,隻是程度不同而已,為(wei) 此認為(wei) 對人的管理、教育方法也適用於(yu) 人工智能。這種誤解、誤判會(hui) 嚴(yan) 重地幹擾人工智能治理。“人工智能之父”麥卡錫等人首次使用了“人工智能”一詞,並明確指出,“AI的大部分工作是研究世界對智能提出的問題,而不是研究人或動物。AI研究者可以使用人沒有或人不能使用的方法,即使這些方法主要涉及計算”。由此可見,在人工智能倫(lun) 理審查中務必根據數據、模型、算法、平台等AI技術要素的實際特性,作出客觀的判斷,而不能混淆人工智能與(yu) 人類智能。
其次,根據倫(lun) 理審查的人才現狀和工作需要,亟須加強科技倫(lun) 理審查人才隊伍的培養(yang) ,以滿足現階段的迫切需要。要從(cong) 更長期的需要出發,加大力度,通過學校教育、進修培訓等方式,培養(yang) 一大批科技倫(lun) 理治理的專(zhuan) 業(ye) 人才。
再次,落實《審查辦法》必須從(cong) 全局觀點出發,清單管理是重中之重,應根據人工智能研究和應用的發展情況和治理需要,對清單進行及時調整,並就調整內(nei) 容及時發布相關(guan) 說明和實施指導。另外,有條件的地區、行業(ye) 和單位,應加快啟動倫(lun) 理審查工作,及時總結經驗教訓,發揮示範和引領作用。還需加強《審查辦法》實施過程中相關(guan) 經驗的信息共享,以提高全國範圍內(nei) 倫(lun) 理審查的效率和效能。
最後,針對滯後性挑戰和人工智能的特點,建議開設一個(ge) 新的研究方向——人工智能可控性研究。以往的研究主要針對工程可靠性,而對人工智能來說,這是遠遠不夠的,有必要從(cong) 基礎理論、模型、算法、數據、平台等各個(ge) 角度,對人工智能的可控性展開全麵研究。同時,需要積極探索人工智能在相關(guan) 領域的倫(lun) 理效應和潛在風險,增強我國對人工智能等科技活動的風險預測和防範能力。
(作者係中國人工智能學會(hui) 人工智能倫(lun) 理與(yu) 治理工委會(hui) 主任)
來源:科技日報
版權聲明:凡注明“來源:新利平台”或“新利平台文”的所有作品,版權歸高原(北京)文化傳(chuan) 播有限公司。任何媒體(ti) 轉載、摘編、引用,須注明來源新利平台和署著作者名,否則將追究相關(guan) 法律責任。