新利平台 > 科技

AI研究“重男輕女”要不得

馮衛東 發布時間:2018-10-15 08:48:00來源: 科技日報

自2014年以來,美國亞(ya) 馬遜公司的機器學習(xi) 團隊一直在秘密研發和使用一款計算機程序,用於(yu) 審查求職者的簡曆,希望能將尋找頂尖人才的工作智能化。但在專(zhuan) 家發現新招聘引擎不喜歡女性後,亞(ya) 馬遜最終在去年年初解散了該研究團隊。

效率提升需求推動機器學習(xi) 應用

無論是在倉(cang) 庫內(nei) 部還是在推動定價(jia) 決(jue) 策方麵,自動化是亞(ya) 馬遜電子商務主導地位的關(guan) 鍵。由於(yu) 低成本計算能力的激增,機器學習(xi) 在技術領域越來越受歡迎。亞(ya) 馬遜的智能化招聘實驗就始於(yu) 這家全球最大在線零售商的關(guan) 鍵時刻。

監管機構的文件顯示,自2015年6月以來,亞(ya) 馬遜的全球員工人數增加了兩(liang) 倍多,達到57萬(wan) 多名。為(wei) 緩解人力資源部門劇增的工作壓力,提升其工作效率,亞(ya) 馬遜愛丁堡工程中心建立了一支研發團隊,目標是開發人工智能技術,快速抓取網絡信息並發現值得招募的候選人。

該公司的實驗性招聘工具使用人工智能為(wei) 求職者提供一星到五星的評分,類似於(yu) 購物者對亞(ya) 馬遜所售產(chan) 品的評分。研究人員希望這個(ge) 招聘軟件能達到“給軟件輸入100份簡曆,它會(hui) 吐出前5名,然後公司就可優(you) 先雇用他們(men) ”的目標。

人工智能招聘軟件“重男輕女”

經過培訓,亞(ya) 馬遜的計算機模型學習(xi) 了過去10年內(nei) 提交給公司的簡曆,找出了其固有模式,並據此來審查申請人。但從(cong) 2015年開始,亞(ya) 馬遜意識到在評定軟件開發和其他技術職位的申請人時,該招聘係統並非性別中立。因為(wei) 大多數申請者都是男性,這反映了整個(ge) 科技行業(ye) 男性主導地位的現實。

研究團隊創建了500個(ge) 專(zhuan) 注於(yu) 特定工作職能和職位的計算機模型。他們(men) 教會(hui) 每個(ge) 模型識別過去候選人簡曆中出現的約5萬(wan) 個(ge) 術語。這些算法對IT應用程序中常見的技能幾乎沒有重要意義(yi) ,例如編寫(xie) 各種計算機代碼的能力等。相反,這項技術有利於(yu) 那些用男性工程師簡曆中諸如“執行”“捕獲”等常見動詞來描述自己的候選人。

事實上,亞(ya) 馬遜的係統通過自學得出了男性候選人更可取的結論。係統對包含“女性”這個(ge) 詞的簡曆進行了處罰,如“女子國際象棋俱樂(le) 部隊長”等。係統還降低了兩(liang) 所全女子大學畢業(ye) 生的評級。

亞(ya) 馬遜曾嚐試對程序進行更新,力圖使其對特定術語保持中立。但這並不能保證機器不會(hui) 根據其他方式來對可能具有歧視性的候選人進行分類。

性別偏見也不是唯一的問題。支持模型判斷的數據也有問題,這意味著不合格的候選人經常被推薦到各種工作崗位。亞(ya) 馬遜最終在去年年初解散了該團隊,因為(wei) 高管們(men) 對這個(ge) 項目已失去信心。

算法公平之路任重道遠

根據人才軟件公司“職業(ye) 創造者”2017年的一項調查顯示,約55%的美國人力資源經理表示,未來5年內(nei) ,人工智能將成為(wei) 他們(men) 工作的常規部分。

長期以來,雇主一直夢想利用技術擴大招聘網絡,減少對招聘人員主觀意見的依賴。但亞(ya) 馬遜的失敗案例,為(wei) 越來越多正在尋求自動化招聘流程的大型公司提供了一個(ge) 教訓。

卡內(nei) 基梅隆大學機器學習(xi) 專(zhuan) 家表示,如何確保算法公平、真正可理解和可解釋的道路還相當遙遠。

《麻省理工技術評論》在此次事件的報道中指出,我們(men) 不能將人工智能視為(wei) 內(nei) 在的無偏見。在有偏見的數據上訓練係統,意味著算法也會(hui) 變得有偏見。如果這樣不公平的人工智能招聘計劃在實施之前沒有被發現,將使長期存在於(yu) 商業(ye) 中的多樣性問題延續下去,而不是解決(jue) 它們(men) 。

(責編: 郭爽)

版權聲明:凡注明“來源:新利平台”或“新利平台文”的所有作品,版權歸高原(北京)文化傳(chuan) 播有限公司。任何媒體(ti) 轉載、摘編、引用,須注明來源新利平台和署著作者名,否則將追究相關(guan) 法律責任。