算法關閉鍵上線,我們需要怎樣的“個性化服務”
如今,“算法”早已經成為(wei) 大眾(zhong) 耳熟能詳的名詞。隨著網絡與(yu) 生活的融合程度日益深化,無論是社交媒體(ti) 的廣告推送,還是電商平台上的購物推薦,背後都離不開算法的支持。互聯網企業(ye) 通過抓取用戶數據,依照用戶畫像提供定製化信息、娛樂(le) 、消費服務,一方麵為(wei) 用戶提供了更加“個(ge) 性化”的使用體(ti) 驗,另一方麵也為(wei) 企業(ye) 帶來了更多利潤,看起來似乎是“雙贏”的好事。然而近年來,公眾(zhong) 對企業(ye) 抓取用戶隱私的的擔憂日漸加深,“大數據殺熟”“信息繭房”等次生問題,也引發輿論關(guan) 注。
近日,抖音、微信、淘寶等多款App均已上線算法關(guan) 閉鍵,允許用戶在後台一鍵關(guan) 閉“個(ge) 性化推薦”的功能。關(guan) 閉推薦後,App將不再根據用戶的瀏覽記錄生成推薦內(nei) 容或廣告。這是《互聯網信息服務算法推薦管理規定》正式實施後,互聯網企業(ye) 自查自糾的重大舉(ju) 措之一。政府與(yu) 社會(hui) 監管的介入,既能讓公眾(zhong) 看不見、摸不著的算法“黑箱”透明化,也讓算法更好地為(wei) 大眾(zhong) 利益服務。
互聯網的高速發展,為(wei) 大眾(zhong) 帶來了前所未有的海量信息,個(ge) 人如何在不斷湧入的龐大信息中收集自己需要的部分,是互聯網時代的獨特難題。算法推薦能根據用戶喜好與(yu) 需求精準提供服務,為(wei) 用戶節約搜集、篩選信息的時間。從(cong) 這個(ge) 角度上看,算法並非洪水猛獸(shou) ,有其存在的獨特價(jia) 值。
然而,問題的症結在於(yu) ,互聯網企業(ye) 的算法推薦機製基本都是“黑箱”。在應用過程中,用戶既不能選擇是否使用這項服務,也無從(cong) 得知算法收集了什麽(me) 個(ge) 人信息,更不知道算法推薦的邏輯與(yu) 規則是什麽(me) 。許多人在不知情的情況下被收集大量隱私,甚至因此被“宰”。此外,算法推薦與(yu) 互聯網服務牢牢綁定,使得在很多情況下,拒絕算法等於(yu) 拒絕服務,這也剝奪了消費者的自主選擇權,讓他們(men) 隻能被迫接受算法對隱私的窺視,坐視自己的合法權益受到損害。
算法一旦被過度濫用,不僅(jin) 會(hui) 侵害個(ge) 人權益,也可能對公共空間造成負麵影響。當社交媒體(ti) 、新聞平台完全按照個(ge) 人喜好篩選並推薦信息時,“信息繭房”也會(hui) 加速形成。用戶終日被包裹在同類信息中,與(yu) 同立場的人抱團而拒斥其他信息,自然會(hui) 成為(wei) 一個(ge) 個(ge) “孤島”,最後導致網絡不再是交流溝通的橋梁,而淪為(wei) 不同群體(ti) 互相攻訐的空間。
算法推薦造成的困境,讓我們(men) 不得不深入思考“個(ge) 性化”的內(nei) 涵。今天的“個(ge) 性化”服務,本質上是一種被動的“個(ge) 性化”。用戶隻能被動地接受算法推薦,被動地讓算法收集自己的數據,被動地讓算法告訴自己什麽(me) 是自己需要的、喜歡的服務與(yu) 信息,最終被框在“舒適區”中難以逃脫。在這樣的“個(ge) 性化”之下,算法推薦變成了一種“馴養(yang) ”用戶的手段。而用戶真正需要的“個(ge) 性化”,應該是主動的“個(ge) 性化”。用戶應該能主動選擇是否使用算法,在了解算法推薦規則與(yu) 邏輯的前提下,定製自己需要的服務,並且知道算法推薦篩選掉了什麽(me) 內(nei) 容,以此突破“信息繭房”,接觸不一樣的世界。歸根結底,算法推薦應該成為(wei) 用戶的工具,而不是套在用戶頭上的枷鎖。
1987年9月20日,中國首次成功發送電子郵件,它的內(nei) 容是“越過長城,走向世界”。互聯網科技的進步應該讓人更便利、更自主、更自由,讓企業(ye) 在算法上的設置更加透明,賦予用戶更充分的選擇權和知情權,才能讓真正的“個(ge) 性化”成為(wei) 互聯網的未來。
羅廣彥 來源:中國青年報
版權聲明:凡注明“來源:新利平台”或“新利平台文”的所有作品,版權歸高原(北京)文化傳(chuan) 播有限公司。任何媒體(ti) 轉載、摘編、引用,須注明來源新利平台和署著作者名,否則將追究相關(guan) 法律責任。