新利平台 > 即時新聞 > 國內

加強算法風險全流程治理 創設算法規範“中國方案”

發布時間:2022-03-01 17:36:00來源: 央視網

  2022年3月1日,國家互聯網信息辦公室、工業(ye) 和信息化部、公安部、市場監管總局聯合發布的《互聯網信息服務算法推薦管理規定》(下文簡稱《規定》)正式施行。在大數據經濟時代,算法是個(ge) 人信息處理者收集和處理數據、推送信息、調配資源的核心力量。算法一旦失範,將給國家利益、社會(hui) 公共利益和公民合法權益帶來嚴(yan) 重威脅。因此,《規定》的施行具有鮮明的時代意義(yi) 和現實需求。

  算法是計算機的核心運行邏輯,是一套基於(yu) 設計目的的數據處理指令的總和,在底層上體(ti) 現出專(zhuan) 業(ye) 科技的特點。算法也是一門賦能技術,應用場景為(wei) 賦能領域,當算法應用到具體(ti) 的商業(ye) 模式當中,就會(hui) 產(chan) 生應用型風險。算法關(guan) 係就是這樣一種“方式”與(yu) “領域”的疊加關(guan) 係或結合關(guan) 係。因此,算法規範不能不談 “方式”,算法的設計、測試、評估屬於(yu) 科技活動,“算法黑箱”、“算法霸權”部分是因科技活動本身的不規範所致;算法規範也不能隻談“方式”,因為(wei) 正是算法層出不窮的應用場景,使得算法現實地影響我們(men) 的權益,影響人的自由發展。《規定》充分把握了算法的內(nei) 生性風險和應用型風險,有針對性地設計風險防範規則。

  第一,算法內(nei) 生性風險的控製重點在算法的設計和運行階段。算法的設計、測試、評估非專(zhuan) 業(ye) 人士不能為(wei) 之,這種“排他性”表明算法活動是一項專(zhuan) 門技術。算法黑箱、算法歧視等痼疾的產(chan) 生,部分也源於(yu) 科技活動本身的複雜性。因此,對科技活動的規範,需要從(cong) 科技風險防範的角度設計專(zhuan) 門規則。《規定》鼓勵使用算法傳(chuan) 播正能量、抵製違法和不良信息,不得設置誘導用戶沉迷、過度消費等有違倫(lun) 理道德的算法模型,推動算法向上向善。表明了作為(wei) 科技活動的算法研發不能僅(jin) 有工具理性,必須具有價(jia) 值理性。

  在具體(ti) 規則層麵,《規定》也側(ce) 重於(yu) 從(cong) 技術角度,直接規範算法設計和運行。例如,第9條第1款要求算法推薦服務提供者建立健全用於(yu) 識別違法和不良信息的特征庫,完善入庫標準、規則和程序;第10條要求算法推薦服務提供者加強用戶模型和用戶標簽管理;第12條鼓勵算法推薦服務提供者綜合運用內(nei) 容去重、打散幹預等策略,並優(you) 化檢索、排序、選擇、推送、展示等規則的透明度和可解釋性等等。

  特別值得關(guan) 注的是,《規定》第24條規定算法備案製度,要求算法推薦服務提供者提供算法類型、算法自評估報告、擬公示內(nei) 容等信息。科技活動風險控製首推風險評估與(yu) 實驗數據記錄。如果算法活動缺乏風險評估,則使得風險無法從(cong) 源頭控製;如果算法設計和檢驗缺乏記錄,則監管機構無法進行有效地評估、追溯和驗證複雜算法。備案製度一定意義(yi) 上倒逼算法推薦服務提供者積極進行風險評估和全流程記錄,既能督促運營者在整個(ge) 算法活動階段考慮算法合規問題,也有助於(yu) 幫助執法機關(guan) 監督算法活動。

  第二,算法應用型風險的治理覆蓋了算法運行的全生命周期。算法既是科學技術,也是賦能手段,其除了具備科技固有的風險之外,也因在商業(ye) 和公共事業(ye) 領域的嵌入式應用,對源於(yu) 工業(ye) 時代立法模式和治理模式不斷衝(chong) 擊,引發了諸多治理痛點。在應用環節,我們(men) 也要貫徹程序性控製。但算法應用有著不同於(yu) 算法研發的特殊性:算法應用直接作用於(yu) 算法相對人。算法應用將影響算法相對人的合法權益——算法針對算法相對人的訴求做出決(jue) 定。為(wei) 了解決(jue) 應用型風險,《規定》針對未成年人、老年人、勞動者和大數據殺熟等場景,分別配置相應的行為(wei) 規則(第19條至第21條)。為(wei) 了實現自下而上的算法治理,《規定》還通過權利路徑,賦予個(ge) 人對抗算法決(jue) 策的權利。

  《規定》第17條第1款規定:“算法推薦服務提供者應當向用戶提供不針對其個(ge) 人特征的選項,或者向用戶提供便捷的關(guan) 閉算法推薦服務的選項。用戶選擇關(guan) 閉算法推薦服務的,算法推薦服務提供者應當立即停止提供相關(guan) 服務。”相較於(yu) 《個(ge) 人信息保護法》第24條第2款的規定,本條進一步明確規定了算法應用拒絕權。

  此外,第17條第2款規定:“算法推薦服務提供者應當向用戶提供選擇或者刪除用於(yu) 算法推薦服務的針對其個(ge) 人特征的用戶標簽的功能。”該條規定為(wei) 我國首創,能夠更全麵地保護算法相對人的利益。算法相對人可能並不是要求算法使用人停止推薦服務,而是禁止推定特定類型的服務。通過賦予算法相對人刪除標簽的權利,能夠更全麵的滿足用戶的要求。

  同時,《規定》第17條第3款還規定:“算法推薦服務提供者應用算法對用戶權益造成重大影響的,應當依法予以說明並承擔相應責任。”比如,在動態定價(jia) 當中,如果推薦給用戶的價(jia) 格偏高,可能構成對用戶權益的重大影響。用戶可以要求算法推薦服務提供者給予說明。如果構成侵犯民事權益的,算法推薦服務提供者應根據法律規定承擔相應責任。

  算法風險的全流程治理,在“風險-規製”框架下尋找新的平衡點和組合方式。算法在本質上是處理數據的代碼,是一項應用科學技術。但技術並非中立,尤其是當算法處理的不是“物”、而是“個(ge) 人信息”時,算法活動就兼具社會(hui) 活動屬性,內(nei) 涵倫(lun) 理和社會(hui) 風險。因此,算法規範難題部分來源於(yu) 科技的專(zhuan) 業(ye) 性和工具性,部分來源於(yu) 應用場景當中的價(jia) 值複雜性。《規定》針對科技風險與(yu) 應用風險設計規則,在“風險-規製”框架下創設了算法規範的中國方案。

  (作者:林洹民,浙江大學光華法學院講師,工業(ye) 與(yu) 信息化法治研究院研究員)

(責編: 陳濛濛)

版權聲明:凡注明“來源:新利平台”或“新利平台文”的所有作品,版權歸高原(北京)文化傳(chuan) 播有限公司。任何媒體(ti) 轉載、摘編、引用,須注明來源新利平台和署著作者名,否則將追究相關(guan) 法律責任。