在當今職場招聘中,人工智能(AI)正逐漸成爲篩選簡歷和評估求職者的重要工具。然而,這項技術也帶來了一些潛在的問題,尤其是關於偏見的問題。研究表明,AI在招聘過程中可能會無意中加劇偏見,而不是消除它們。
AI在招聘領域的應用承諾了更高的客觀性和效率,通過消除人爲偏見,增強決策制定中的公平性和一致性。但實際情況可能並非如此。研究發現,AI在招聘中可能會微妙地,有時甚至是明顯地加劇偏見。人力資源(HR)專業人員的參與可能加劇而非緩解這些影響,這挑戰了我們對人工監督能夠控制和調節AI的信念。
圖源備註:圖片由AI生成,圖片授權服務商Midjourney
儘管使用AI進行招聘的原因之一是它被認爲更客觀和一致,但多項研究實際上發現這項技術很可能存在偏見。這是因爲AI從訓練它的數據集中學習。如果數據存在缺陷,AI也會如此。數據中的偏見可能因支持AI的人類創造的算法而加劇,這些算法在設計中常常包含人類偏見。
研究者還採訪了17位AI開發者,探討了如何開發能夠減少而非加劇招聘偏見的AI招聘系統。基於這些訪談,研究者提出了一個模型,其中HR專業人員和AI程序員將來回交換信息,並在檢查數據集和開發算法時質疑先入爲主的觀念。
然而,研究發現實施這種模型的難點在於HR專業人員和AI開發者之間存在的教育、專業和人口統計差異。這些差異妨礙了有效的溝通、合作,甚至理解彼此的能力。HR專業人員通常接受人力資源管理和組織行爲方面的培訓,而AI開發者則擅長數據科學和技術。
如果公司和HR行業想要解決基於AI的招聘中的偏見問題,需要進行一些改變:
結構化培訓計劃:爲HR專業人員實施專注於信息系統開發和AI的結構化培訓計劃至關重要。此培訓應涵蓋AI的基礎知識、識別AI系統中的偏見以及減輕這些偏見的策略。
促進HR專業人員與AI開發者之間的更好合作:公司應尋求創建包括HR和AI專家的團隊。這有助於彌合溝通差距,更好地協調他們的努力。
開發具有文化相關性的數據集:這對於減少AI系統中的偏見至關重要。HR專業人員和AI開發者需要共同努力,確保AI驅動的招聘流程中使用的數據是多樣化的,並代表不同的人口統計羣體。
制定指導方針和倫理標準:國家需要爲AI在招聘中的使用制定指導方針和倫理標準,這有助於建立信任並確保公平。組織應實施促進AI驅動決策過程中透明度和問責制的政策。
通過採取這些措施,我們可以創建一個更具包容性和公平性的招聘系統,充分利用HR專業人員和AI開發者的優勢。