你辛辛苦苦投出簡歷,沒想到面試官竟是機器!

作者: 發布時間:2021-04-12 來源:復旦發展研究院+收藏本文


2020年12月,美國參議院的10位參議員致信平等就業機會委員會(EEOC),質詢該機構是否有能力對使用人工智能算法進行招聘的公司進行足夠的審查和監管,從而避免可能存在的招聘歧視和偏見。這對美國政府的“算法審計(Algorithmic Auditing)”能力提出了要求。“算法審計”這個新名詞模擬了財務會計領域的“財務審計”,是指獨立機構針對一個公司所使用的人工智能算法進行審查,來評估算法對數據的處理過程是否符合規范性標準。美國布魯金斯學會研究員、喬治敦大學麥考特公共政策學院兼職教授Alex Engler日前發布報告,認為現有的第三方算法審計業務帶有不夠透明、不夠徹底、缺乏行業標準等問題,而政府等公共力量應該設定相應的行業標準,規范市場中存在的算法審計服務。


這是一個人工智能當面試官的時代

人工智能算法目前普遍應用于勞動力市場。統計數據表明,在美國約55%的人力資源主管在招聘過程中使用預測算法。求職者會在諸如LinkedIn、Monster和Indeed之類的網站上尋找工作機會,公司也會使用算法系統來分析簡歷。JobScan、VMock等公司還會使用算法幫助求職者優化簡歷,從而幫助其更好地被其他算法認可。有一些公司,比如Pymetrics會利用面部識別等一系列AI算法來幫助普華永道、摩根大通等大公司面試雇員;類似的公司還有PredictiveHire,甚至能在招聘時預測應聘者將在工作崗位上表現如何、是否容易跳槽等等。此外,這些公司還會用算法來監測工作崗位上的員工,從而部分決定員工的留用、工資和晉升。

這些算法的普遍特點是會收集求職者的數據,并通過“機器學習(machine learning)”技術,用大數據不斷訓練算法模型。公司建立和使用算法工具來提高效率和減少招聘成本,也希望潛在地提高雇員的多元性和工作表現。但是隨之而來的則是有關倫理的憂慮:個人求職者一旦沒能符合算法設定的條件就會被自動排除;算法的空前普及也引發了勞動力市場中關于系統性歧視的擔憂。


求職者可能遭到人工智能排擠和歧視

研究表明,一些自然語言分析模型,在分析簡歷或者面試表現時,會展現出針對女性和殘疾人的偏見;一些語音識別模型顯現出了針對非裔美國人和操區域方言口音人士的明顯偏見;人工智能面部分析的商業化應用,不僅是非常偽科學的,還表現出了膚色歧視;傳播招聘信息的算法可能會無意間歧視從事理科工作的年輕女性和年齡較大的候選人。即便是在單個算法中的很小偏差,在算法的廣泛使用中也很容易累積到更大的結構性問題。

但很多證據表明,不使用算法也并不是一個好的解決辦法,因為早在算法時代之前,歧視和偏見也是存在的,比如應用很久的智商測試等等。如今人們期待通過對算法的設計,來改善和避免招聘中可能出現的歧視,比如設計專門的程序來隱藏種族、性別等信息。此外,人們開始利用“算法審計”來讓獨立機構對算法系統進行評估,從而檢驗算法是否能夠排除偏見,以及是否有足夠的準確性、魯棒性、可解讀性、私密性等等。



現行算法審計業務的缺陷

為了研究現行市場中的算法審計情況,作者專門考察了兩個案例。一個是奧尼爾風險咨詢和算法審計公司(ORCAA)與HireVue的算法審計合約,另一個是西北大學獨立研究人員對Pymetrics的審計。作者從審計機構的獨立性、審計分析的徹底性和結果透明性等多個角度研究了這兩個案例,發現與傳統財務審計相比,當前的算法審計業務仍是不成熟的:

1.缺乏行業規范。美國財務會計標準委員會要求執行一套通用的原則,即公認會計準則(GAAS),規定了獨立機構應當如何進行財務審計。但是在算法審計行業中暫時沒有此類規范。

2.缺乏可問責性。在現行的財務審計模式下,當審計機構客戶出現信用危機時,審計機構自身要承擔法律和道德上的責任。但在算法審計市場中,還暫時無法要求算法審計機構承擔相應責任,因為算法帶來的損害非常個別化且難以識別——即便一個算法是充滿歧視性的,甚至這種歧視性的證據被公開,也很難對相關的公司造成損失或者使其承擔成比例的后果。


重新制定算法審計的行業標準

作者建議政府應該承擔相應的責任,督促算法審計形成行業規范和可問責性。為此,作者設定了一系列技術性標準來規范算法審計,包含審計流程注意事項、建模依賴性和存檔、模型審查三個方面。

1、審計流程注意事項:比如要求審計師有足夠的獨立性和專業性,要求審計中選取的模型有充分的數量和代表性等。

2、建模依賴性和存檔:比如要求算法審計主動考慮到數據收集和擦除過程;要求獲得用以訓練算法的數據中有關種族統計數據的信息;要求依賴性分析,比如要考慮被審計公司的算法使用了那些軟件包和軟件庫;要求存檔審查,算法審計要審查算法模型的存檔,并確保這些存檔能夠準確地表達出算法模型的實際功能等。

3、模型審查:比如要求算法審計能夠徹底檢驗求職者是如何被一個算法系統排序的,以及這種排序與種族、性別等統計數據的關系,以檢驗是否存在偏見;要求算法審計師能夠使用假設性數據來檢查算法模型的建造過程,來檢視是否有自動或者人力疏忽的因素造成了有問題的被訓練模型;要求算法審計能夠檢查模型的升級版本,評價模型的改造是不是會帶來更糟的表現,從而為模型審計的頻率提供建議等。


作者認為,提出上述標準只是一個開始,更多細節有賴于有關算法審計的更充分討論。聯邦政府機構有責任認真考量算法審計,比如平等就業機會委員會(EEOC)要開展符合標準的算法審計工作,勞工部聯邦合同合規辦公室要確保聯邦政府只與那些能夠排除偏見的算法雇傭公司開展合同關系等。只有政府在擁有相應的算法審計能力時,才有辦法應對這些問題,從而才能更好的適應算法系統日趨泛濫的現狀。


參考文獻:

https://www.brookings.edu/research/auditing-employment-algorithms-for-discrimination/


編譯 | 張吉泰 復旦發展研究院國際合作和重大活動辦公室


彩神官网-官方