澳超60%企業用AI招聘,新移民和女性恐被「淘汰」

(圖片來源:ABC)

隨著科技的不斷進步,人工智慧(AI)在各個領域得到了廣泛應用,其中之一便是招聘領域。

廣播公司報道,越來越多的澳洲僱主開始使用AI招聘系統來篩選和挑選求職者,希望通過簡歷掃描和語言評估等尖端技術來實現甄選工作的自動化和高效化。

然而,大學的一項新研究揭示出,這種技術可能存在嚴重的歧視風險,尤其是對邊緣化的群體。AI招聘系統的運作原理主要是通過對求職者提交的信息進行分析,從而「分類、排名和評分」。

僱主們認為這一過程能有效節省招聘所需的時間和金錢,因為AI程序可以快速處理大量的申請材料,進行初步的篩選。

這樣一來,只有通過了AI篩選的求職者才會被推薦到人工面試的階段。這聽起來似乎是一個理想而又公正的過程,但實際操作中卻暴露出了許多問題。

研究員Natalie Sheard指出,AI招聘系統可能「啟用、強化和放大」對已被邊緣化群體的歧視。

這些系統的設計和訓練過程中存在的數據偏見會導致對女性、殘疾人、來自非英語背景的群體以及年長求職者的不利對待。

(圖片來源:ABC)

例如,一些系統使用的面部識別技術會根據面部特徵和動作來評價求職者的行為和個性,這很可能加重了對某些群體的刻板印象和偏見。

目前,在澳洲,約有62%的組織「廣泛或中度地」將AI作為招聘流程的一部分,然而,卻沒有相應的法律對這些技術的應用進行規範。

AI本應消除人類在招聘過程中的偏見,但實際案例卻顯示出相反的情況。例如,美國的公司曾開發過一套AI招聘系統,結果顯示出性別歧視的傾向。

這個系統在篩選簡歷時,學會了對包含「女性」一詞的簡歷進行降級。這一偏見的產生很大程度上是因為系統是基於過去申請者的數據進行訓練的,而這些數據本身就具有性別偏見。

除此之外,其他國家的案例也證明了AI招聘系統可能引發的歧視問題。在美國,有求職者因為背景不同而遭到AI系統的不公對待。

(圖片來源:ABC)

例如,一名原住民背景並有聽力障礙的女性在經過一次自動化的視頻面試后未能獲得晉陞,這引發了對系統性歧視的質疑。

面對這些隱患,澳洲尚未見到類似的法律行動。不過,負責審核就業決策的Merit Protection Commissioner在發現一個自動化招聘系統導致優秀的申請者錯失機會後,已經為公共部門的僱主提供了指導。

該專員發現,這些系統在沒有人工干預或審核的情況下,可能會導致重大錯誤。為應對AI招聘工具可能帶來的歧視風險,Sheard建議,需要對這些系統進行嚴格的監管,確保其公平性和透明度。

一些組織甚至呼籲完全禁止使用這種AI系統,尤其是在尚無合適法律框架來保障求職者權益的時候。在全球範圍內,對AI技術進行監管的呼聲日益高漲。

尤其是在美國和歐盟,這些地區已經開始著手制定相關法律,以規範AI的使用。在澳洲,政府也正在考慮是否引入類似於歐盟的法律對AI技術進行全面監管。

(圖片來源:ABC)

Sheard還指出,現有的反歧視法律也需進行審查,以確保這些法律能夠適應包括AI招聘工具在內的新技術帶來的挑戰。

這就要求法律不僅要考慮傳統的歧視形式,還要覆蓋由於技術發展而產生的新的不公平對待。

AI招聘技術的應用無疑可以提高效率,但如何在效率和公平之間找到平衡,是目前各國面臨的主要挑戰。只有在嚴格的法律監管和倫理約束下,AI技術才能真正為社會帶來正面的改變,而不是成為新的歧視工具。

*以上內容系網友會火自行轉載自大澳網,該文僅代表原作者觀點和態度。本站系信息發布平台,僅提供信息存儲空間服務,不代表贊同其觀點和對其真實性負責。如果對文章或圖片/視頻版權有異議,請郵件至我們反饋,平台將會及時處理。

喜歡、支持,請轉發分享↓
贊助商鏈接