不久前,職業社交網絡平台領英發布了一款公平工具包——一個開源軟體庫,其他公司可以用它來測量自己公司的人工智慧(AI)模型的公平性。這是幫助企業和政府試圖解決公平性問題的又一次嘗試。
谷歌也在其網站上列出了一些偏見審查的提示,並附上了相關主題研究論文的連結。

新加坡已經有了人工智慧治理框架模型,該模型為如何將公平和透明轉化為實踐提供建議,例如,讓利益相關方了解人工智慧政策;歐盟也設有關於信賴人工智慧的道德準則。
人工智慧日漸普及,不過,依然有人對其感到不安。
在英國,人們根據學生歷史成績,利用算法來預測A水準考試的成績。結果很多學生的成績下降,尤其是出身於貧困學校的學生。
人工智慧的使用本是為了減少教師在預測學生成績時的偏見,但是卻產生了新的偏見。
算法能夠從給定的數據中學習。因而,如果數據存在偏差,結果也會出現誤差。
今年早些時候,底特律警方錯誤逮捕了一名非洲裔美國人,原因是AI面部識別系統錯誤地將他認定為搶劫嫌疑犯。
面對這些事件,人們不禁要問:算法的結果都是公平可信的嗎?
正因如此,採用人工智慧的企業有必要建立信任。
研究表明,當人們認為自己受到公平對待時,他們更願意合作,並且表現得更優秀。同樣,如果人們相信人工智慧能夠確保公平,他們就更願意接受算法的建議。
教授簡介


掃碼查看
英文簡介
David De Cremer
新加坡國立大學商學院管理與組織系
教務長講席教授
人工智慧技術與人性化管理研究中心
(AiTH)主任
英國·南安普敦大學博士
教研領域:21世紀領導力、商業資產信用、國際商業環境的行為方式、組織正義、商業倫理行為、數字經濟和人工智慧時代領導力等
那麼,在推進人工智慧應用的過程中,政府和相關企業應該如何向用戶傳達人工智慧會保持公正呢?
對於這一點,不能簡單地像對待技術問題那樣,分解為幾個層面,如可問責性和可解釋性,然後尋找正確的答案。
公平,是一個社會概念,它關係到人們如何與他人互動,讓大家都變得更好。這裡的重點在於更重要的事業。
因此,如果我們想了解算法的公平性,需要超越其技術層面,考慮到社會的影響。而且一個重要的方面在於,觀察人工智慧在協助人類合作完成更高層次的任務上表現如何。
人與AI缺一不可
因此,人工智慧系統的公平與否不應當僅僅由數據工程師和數據科學家團隊決定。政府、公司和機構同樣需要考慮利益相關者和最終使用方的感受。
他們是否感覺到自己被公平對待?他們對公平的期望是什麼?
由於人工智慧不具備道德品質,因此還需要人為去評估人工智慧提出的解決方案在社會背景下是否公平。這一現實意味著我們需要了解社會規範,並具備較高道德價值的人。
當然,人們都有自己的偏見,但研究表明在評價他人的決定時,人們不太可能會帶有偏見。在這方面,無論是在學校,還是工作場所,這一「道德指南針」的作用再重要不過。
人文關懷
由於人工智慧的公平性比簡單尋找技術解決方案更為複雜,因此算法的發展也需要更具人性化的方法。
與其尋找最優、最合理的算法,不妨在追求效用與人文關懷之間尋求一個平衡,這樣才能讓人們接受人工智慧,並信任它的公平性。
人類沒有固定的生產效率;我們可能會在短期效率爆發,會在特定環境下做得更好,我們也會因為家事憂傷,或者因適應生活中的新變化花費更多時間。
受新冠疫情的影響,許多家庭被迫適應與家人長期分離的生活。有的家長忙於兼顧自己居家辦公,同時要照顧孩子在家學習;有的醫療工作者糾結於是否要把孩子寄養到親戚家,否則的話,繼續住在一起就要冒著把新冠病毒傳染給他們的風險。
雖然人工智慧可以提供最佳資源分配和工作流程管理,但我們需要緩衝,因為人類時常會需要幫助,在社會中的我們都需要牢記這一點。
最終,判斷人工智慧系統是否公平取決於最終使用者。

系統的技術水平並不重要,人們主要根據自身如何看待算法生成解決方案,以及這些結果與自身價值相符程度來判斷其公平性。
這意味著數據科學家和工程師在建立系統時必須牢記這些價值觀。例如,如果一家公司注重對少數群體的包容性,那麼這些群體的數據應該包括在內,而不是視作數據異常。
出於這個原因,最終人們評判的是公司是否公平,而非算法。事實上,在人們的眼中算法並非道德敏感體(它只是個機器),因此,不能對其生成的解決方案的計算負責。
相反,機構和政府由人類領導,需要對他們的決策負責,其中包括對人工智慧系統的應用。
我們需要領導者明確他們的價值觀,並考慮到人們面臨模型輸出結果時的信息需求和期望。
只有這樣,人們才會更加信任人工智慧。
文章英文版原載於The Business Times,點擊左下角「閱讀原文」網站
原題為:For people to trust AI, build fairness into it
作者:David De Cremer,新加坡國立大學商學院管理與組織系教務長講席教授
翻譯:汪青青
*本文觀點不代表新加坡國立大學商學院機構觀點
