給“算法應用”立規矩 保護個人信息護航數字經濟發展
保護個(ge) 人信息,護航數字經濟發展
給“算法應用”立規矩
使用某個(ge) 應用程序後,它就能“猜”到你喜歡什麽(me) ,並且精準推送相關(guan) 內(nei) 容,滋生“信息繭房”、大數據“殺熟”等問題。這樣的情況最近終於(yu) 開始有了改變。隨著國家網信辦等4部門聯合發布的《互聯網信息服務算法推薦管理規定》近日正式施行,很多APP先後上線算法關(guan) 閉鍵,允許用戶在後台一鍵關(guan) 閉“個(ge) 性化推薦”。專(zhuan) 家表示,要繼續壓實平台責任,促進算法應用向上向善,讓算法更好地為(wei) 用戶服務,推動信息服務行業(ye) 長遠、健康發展。
可一鍵關(guan) 閉“個(ge) 性化推薦”
通過參考互聯網上的“攻略”,北京的王女士最近終於(yu) 將一款社交應用中的“個(ge) 性化推薦”服務選項關(guan) 閉,“再打開這個(ge) APP,感覺安心不少”。
王女士之所以下決(jue) 心關(guan) 掉“個(ge) 性化推薦”服務,源於(yu) 此前遇到的一些糟心經曆。她在這款應用裏曾發表過皮膚幹燥的言論,此後便在各個(ge) 平台不斷收到麵部“保鮮”秘笈的文章、美容產(chan) 品的推銷廣告,讓王女士不堪其擾。
在移動互聯網時代,每一個(ge) 人都在生產(chan) “數據”。此前,這些“數據”被平台以各種方式采集,然後通過算法分析出用戶行為(wei) 、習(xi) 慣和喜好,進而精準地提供信息、娛樂(le) 、消費等各類服務。這種基於(yu) 算法的技術創新在為(wei) 用戶提供精準信息服務的同時,也滋生出不少問題。
《互聯網信息服務算法推薦管理規定》(以下簡稱《管理規定》)近日正式施行,將算法推薦服務全麵納入監管。《管理規定》提出,算法推薦服務提供者應當向用戶提供不針對其個(ge) 人特征的選項,或者向用戶提供便捷的關(guan) 閉算法推薦服務的選項。
《管理規定》出台後,多家平台先後上線算法關(guan) 閉鍵,允許用戶在後台一鍵關(guan) 閉“個(ge) 性化推薦”。用戶關(guan) 閉“個(ge) 性化推薦”後,平台會(hui) 根據內(nei) 容的熱門程度進行分發,推送內(nei) 容更加體(ti) 現應用特色。很多網友表示,以前總是被“安排”看一些內(nei) 容,關(guan) 閉“個(ge) 性化推薦”後,感覺看到了更廣闊的世界。
記者在體(ti) 驗後發現,目前多數APP還是默認打開“個(ge) 性化推薦”,要找到“個(ge) 性化推薦”關(guan) 閉鍵並不太容易。以一款電商應用為(wei) 例,需先後點擊進入數個(ge) 頁麵,然後在呈現的10多個(ge) 選項裏找到“個(ge) 性化推薦”的關(guan) 閉按鈕。有用戶認為(wei) ,這樣的設置方式難言“便捷”,其目的是讓用戶“知難而退”。
關(guan) 閉個(ge) 性化推薦,是否意味著算法推薦技術走到盡頭?中國人民大學信息學院教授程絮森分析,隨著新規實施,如何使個(ge) 性化推薦更加規範,是很大的挑戰,但也相應促進了各互聯網平台的技術發展進步,有利於(yu) 加速推進相關(guan) 行業(ye) 的數字化轉型與(yu) 平台經濟的健康發展。
合力推動產(chan) 品向善
同樣的訂單,熟客比新客多付錢,被用戶質疑平台利用算法模型進行大數據“殺熟”。《管理規定》提出,算法推薦服務提供者向消費者銷售商品或者提供服務的,應當保護消費者公平交易的權利,不得根據消費者的偏好、交易習(xi) 慣等特征,利用算法在交易價(jia) 格等交易條件上實施不合理的差別待遇等違法行為(wei) 。
中國信息安全研究院副院長左曉棟認為(wei) ,大數據“殺熟”等頑疾歸根結底是濫用用戶個(ge) 人信息導致的。解決(jue) 這類問題首先要在治理違法違規收集用戶個(ge) 人信息上下功夫,其次要保障用戶的選擇權、刪除權等權益。
“刷短視頻、玩遊戲的時候,沒感覺時間過得很快,但每次放下手機,發現已經幾個(ge) 小時過去了。”在上海一家企業(ye) 工作的陳先生感慨,每次拿起手機娛樂(le) 時,感覺像中毒一樣停不下來。另有不少網友抱怨,當自己反複瀏覽某件商品時,平台就會(hui) 顯示一連串促銷優(you) 惠信息,很多人因此盲目下單。
《管理規定》提出,算法推薦服務提供者應當定期審核、評估、驗證算法機製機理、模型、數據和應用結果等,不得設置誘導用戶沉迷、過度消費等違反法律法規或者違背倫(lun) 理道德的算法模型。
北京大學中國社會(hui) 與(yu) 發展研究中心主任邱澤奇對記者說,社會(hui) 學把人們(men) 偏好的內(nei) 容區分為(wei) 兩(liang) 個(ge) 理想類型,一類是理性的,類似於(yu) 對人對事物的觀點,這種對“自我”的偏好是人類認知偏好的一部分,容易形成“信息繭房”效應或“回音壁”效應;另一類是感性的,類似於(yu) 對人對事物的情感,人們(men) 在情感上容易受到他人的感染,易產(chan) 生“情緒傳(chuan) 染”效應。
邱澤奇認為(wei) ,在數字時代,諸多產(chan) 品都是動態產(chan) 品,需要根據交互數據對產(chan) 品不斷進行優(you) 化迭代,通過產(chan) 品升級、算法升級以滿足用戶需求。基於(yu) 人類認知偏好的複雜性,企業(ye) 除了承擔產(chan) 品責任,還要承擔起相應社會(hui) 責任,把用戶納入產(chan) 品的開發、生產(chan) 與(yu) 服務中,通過政府、企業(ye) 和用戶共同參與(yu) 、建立相應規則,不斷推動產(chan) 品向善、科技向善。
實現負責任的創新
近年來,一些企業(ye) 利用算法注冊(ce) 虛假賬號、雇傭(yong) 網絡“水軍(jun) ”,鼓動“飯圈”粉絲(si) 互撕謾罵、刷量控評;操縱幹預熱搜、榜單或檢索結果排序;向未成年人推送不良內(nei) 容……針對這些問題,《管理規定》提出“建立健全算法機製機理審核、科技倫(lun) 理審查、用戶注冊(ce) 、信息發布審核等管理製度”“提供算法推薦服務,應當遵守法律法規,尊重社會(hui) 公德和倫(lun) 理,遵守商業(ye) 道德和職業(ye) 道德”等措施。
從(cong) 更深層意義(yi) 看,因算法技術創新而衍生的一係列問題涉及科技倫(lun) 理。中共中央辦公廳、國務院辦公廳近日印發的《關(guan) 於(yu) 加強科技倫(lun) 理治理的意見》提出,加強源頭治理,注重預防,將科技倫(lun) 理要求貫穿科學研究、技術開發等科技活動全過程,促進科技活動與(yu) 科技倫(lun) 理協調發展、良性互動,實現負責任的創新。
中國社科院信息化研究中心主任薑奇平表示,從(cong) 技術創新層麵看,應推動算法技術回到正常軌道,比如單純基於(yu) 人們(men) 的偏好推薦閱讀內(nei) 容,錯誤之處在於(yu) 對人的理解不足,把人理解成機器,沒有考慮到人還具有自由意誌。從(cong) 價(jia) 值倫(lun) 理層麵看,哲學上的善和倫(lun) 理的本質都源於(yu) 自由意誌,因此應該在技術創新過程中把人之為(wei) 人的一麵、人和人的關(guan) 係擺進技術裏考慮。
專(zhuan) 家認為(wei) ,數字時代的算法技術創新應是一種負責任的創新,要進一步壓實平台責任,確保科技活動符合科技倫(lun) 理。隻有堅持把消費者對信息服務的評判權置於(yu) 采集權之上,才能更好把握個(ge) 性化信息服務業(ye) 態的發展方向,促進數字經濟高質量發展。(記者彭訓文)
版權聲明:凡注明“來源:新利平台”或“新利平台文”的所有作品,版權歸高原(北京)文化傳(chuan) 播有限公司。任何媒體(ti) 轉載、摘編、引用,須注明來源新利平台和署著作者名,否則將追究相關(guan) 法律責任。