新利平台 > 即時新聞 > 文化

規避算法過度決策的風險

發布時間:2022-04-22 11:03:00來源: 學習時報

  作者:鄭琛

  算法決(jue) 策已經成為(wei) 數字時代的一項基礎性技術。隨著數字技術全麵融入社會(hui) 交往和日常生活,算法也在重新構築著我們(men) 的生產(chan) 方式和生活方式。從(cong) 智能導航到視頻購物網站的精準推送,從(cong) 攝像頭的監測識別到網上醫療的智能問藥,從(cong) 智慧交通的擁堵預測到智能家居的萬(wan) 物互聯,算法依托海量的數據要素,成為(wei) 智能決(jue) 策的基礎,給經濟社會(hui) 發展注入了新動能,滿足了人們(men) 多元化、個(ge) 性化的需求,但由於(yu) 算法存在的缺陷也帶來了算法黑箱、數據濫用、信息繭房等一係列問題。探索算法決(jue) 策的邏輯和社會(hui) 影響,進而提出協同共治的有效路徑,推動技術理性和價(jia) 值理性實現平衡,是當前值得思考的重要問題。

  算法決(jue) 策的表現

  算法是計算機的運算方法,是基於(yu) 特定的計算,將輸入數據轉換為(wei) 所需的輸出的編碼程序。其基本原理就是有輸入還有輸出地解決(jue) 問題的計算步驟。它主要通過以下手段來進行決(jue) 策:一是定義(yi) 明確。算法決(jue) 策的基礎是定義(yi) 的明確性。將現實問題抽象為(wei) 一個(ge) 或幾個(ge) 數學問題,給出明確的解決(jue) 方案,這個(ge) 算法就可以被執行無數次。也就是說,不論輸入問題的是誰,隻要被計算機認為(wei) 是同一個(ge) 問題,適用同一個(ge) 算法,就會(hui) 得到輸出的同一個(ge) 決(jue) 策方案。例如,我們(men) 在購物網站購買(mai) 一個(ge) 籃球,通過算法這個(ge) 網站會(hui) 一直給我們(men) 推薦各類籃球或健身周邊的產(chan) 品。二是依靠數學模型。針對不同的問題,算法以同樣的方式進行拆解,進而用同一套邏輯內(nei) 核來解決(jue) 我們(men) 的各類問題。正是模型化,賦予了算法快速的問題遷移能力。例如,視頻平台通過早期流量和數據積累完成用戶畫像和用戶標簽化,在多功能複合超級平台上實現“定時”“定點”“定人”的自動分發,利用算法模型實現了對用戶流量以及注意力的長期鎖定,讓用戶對平台保持深度黏性。三是步驟有限。算法必須能在執行有限步驟之後自動結束,並且每個(ge) 步驟在可接受的時間內(nei) 完成。所以算法針對的是可以計算、可以判定、可以設計出解決(jue) 方案的問題,通過“化繁為(wei) 簡”,帶有層次性的計算量的有限疊加,將所有信息與(yu) 內(nei) 容雜糅轉化為(wei) 清晰的指令集和,最終在毫秒或微秒級內(nei) 完成複雜任務。比如,翻譯軟件通過運用自然語言識別和處理算法,大大降低了人類獲取其他語言信息的難度。

  算法過度決(jue) 策的風險

  算法的屬性和運行特征決(jue) 定了其決(jue) 策過程可能存在的風險。一是算法決(jue) 策程序自身存在風險。工程師無法對機器學習(xi) 算法的全部邏輯基礎生成過程實施監督和幹預,而機器能夠在短時間內(nei) 處理成千上萬(wan) 參數的變化,這樣我們(men) 對於(yu) 結果的不可預料性也就無法控製,就會(hui) 導致算法作出過度決(jue) 策。算法和人的核心差異之一就是人做事可以接受一定程度的模糊和機動,而算法卻對明確性有極致的要求。例如實時智能配送係統將配送時間作為(wei) 最重要的指標,在智能算法深度學習(xi) 下,係統會(hui) 接連不斷優(you) 化時間,這樣算出來的“最優(you) 解”就會(hui) 不斷倒逼外賣騎手疲勞作業(ye) 從(cong) 而實現算法給出的效率、體(ti) 驗和成本最大化的目標。二是算法的個(ge) 性化服務存在用戶權益受損的風險。目前個(ge) 性化的推薦主要是對商業(ye) 模式的優(you) 化,而不基於(yu) 用戶利益最大化的邏輯。平台運用算法清晰掌握了用戶的實際需求、消費偏好和行為(wei) 軌跡,為(wei) 了實現利潤最大化,可能會(hui) 采用價(jia) 格歧視等手段,基於(yu) 用戶的個(ge) 體(ti) 特征定製服務和價(jia) 格,這樣我們(men) 就會(hui) 在不知情的狀況下選擇被算法“剝削”的決(jue) 策方案。三是算法進入公共決(jue) 策領域可能會(hui) 幹預政策議程,侵害個(ge) 人的基本權利,這是由於(yu) 算法模型存在缺陷而對特定群體(ti) 的利益形成傷(shang) 害造成的。

  運用算法優(you) 勢作出科學決(jue) 策

  提高個(ge) 人數字素養(yang) 。當前與(yu) 人們(men) 生產(chan) 、生活緊密相關(guan) 的算法類型多種多樣,數字化、智能化已經勢不可當地滲透到社會(hui) 生活的各個(ge) 領域,不斷拓展和滿足人們(men) 更高層次的需要。同時,我們(men) 也需要提高對算法的認知水平,關(guan) 注算法背後的評價(jia) 體(ti) 係和設計原則,充分理解隱私權、知情權、參與(yu) 權、平等權、被遺忘權、“自決(jue) 權”在數字時代的新內(nei) 涵。在此基礎上充分掌握決(jue) 策的主動權,從(cong) 個(ge) 人價(jia) 值和公共價(jia) 值出發,提高對算法決(jue) 策的思辨能力,有選擇地規避算法自動化決(jue) 策,維護數字世界的客觀、自由、正義(yi) 、透明、安全、責任原則。

  科學運用算法輔助決(jue) 策。在算法係統中,雖然算法可以學習(xi) 人的決(jue) 策過程和決(jue) 策模式,甚至比人的決(jue) 策更具有穩定性和規範性,但是涉及人的重要權利的問題,必須在相關(guan) 法律的框架下,用正當程序的價(jia) 值理念維護程序公平。首先,履行事先告知、聽取意見、說明理由的程序,在對算法進行修正的基礎上,運行自動化的決(jue) 策程序和判斷邏輯;其次,還要設置補救程序,對特殊的個(ge) 案給予必要的保護和核查,有錯誤及時實施修正;最後,要保障用戶的“數字權益”,處理好機器和人的關(guan) 係。

  細化算法場景化監管。3月1日起施行的《互聯網信息服務算法推薦管理規定》,是一部以算法作為(wei) 專(zhuan) 門規製對象的部門規章,與(yu) 網絡安全法、數據安全法、個(ge) 人信息保護法等相關(guan) 法律法規構成了我國開展新技術、新應用治理的規則體(ti) 係。如何讓算法切實起到科學輔助決(jue) 策的作用,在《互聯網信息服務算法推薦管理規定》具體(ti) 落實層麵,還需要對算法技術以及算法技術應用的具體(ti) 場景進行分類和分級監管。清晰區分“生成合成類、個(ge) 性化推送類、排序精選類、檢索過濾類、調度決(jue) 策類”算法在關(guan) 鍵環節中應用的影響主體(ti) 、範圍和程度,實施差異化監管。除此之外監管部門還應該加強對算法解釋與(yu) 實際結果的一致性進行監管,進一步規範和增加算法解釋請求權,增加數據被遺忘權,建立健全科學的歸責和懲罰機製,促進互聯網信息服務健康有序發展。隻有引導算法在透明、合法、公平、公正的原則下實施創新創造,明確算法的工具屬性,才能從(cong) 根本上維護國家安全和公共利益,保障人的主體(ti) 地位和價(jia) 值權利。(鄭琛)

(責編: 常邦麗)

版權聲明:凡注明“來源:新利平台”或“新利平台文”的所有作品,版權歸高原(北京)文化傳(chuan) 播有限公司。任何媒體(ti) 轉載、摘編、引用,須注明來源新利平台和署著作者名,否則將追究相關(guan) 法律責任。