AI正在重塑招聘流程,但一項來自墨爾本大學法學院的最新研究警告:這些看似高效的系統,可能正在悄悄放大職場歧視。
研究發現,AI招聘系統常常懲罰履歷中有空檔期的候選人,這直接影響了因育兒、醫療或家庭原因短暫離職的女性。同時,系統在處理非母語英語者的視頻面試時,語音轉文字錯誤率高達22%,對比母語者不到10%。
此外,系統可能因學習了帶有偏見的歷史數據,自動降低含有「women』s」等關鍵詞簡歷的評分;一些演算法也偏好名校或特定GPA標準,形成隱性學歷歧視。
這些「理想候選人」標準,看似中性,實則對特定族群極為不利。
「系統性鎖死機會」:法律學者發出警告
研究者Sheard博士表示,這些AI系統缺乏透明度,連招聘官都無法解釋評分機制,更遑論給出反饋。
「這是最可怕的地方,你連為什麼沒被錄用都不知道。」
在全球已有42%公司使用AI篩選求職者的背景下,研究呼籲澳洲儘快制定法規,確保AI招聘工具具備:可審計性
公平性
包容性
AI招聘並非不該用,但在高效率的背後,如果沒有人類的溫度與監管,它也可能成為另一種形式的「無形天花板」。對於女性、移民和殘障人士來說,真正的挑戰可能已經不在人事部的面試間,而是在代碼和演算法之間。
*以上內容系網友YOYO丫米自行轉載自大澳網,該文僅代表原作者觀點和態度。本站系信息發布平台,僅提供信息存儲空間服務,不代表贊同其觀點和對其真實性負責。如果對文章或圖片/視頻版權有異議,請郵件至我們反饋,平台將會及時處理。