Algorithmic Fairness/zh

    From Marovi AI
    This page is a translated version of the page Algorithmic Fairness and the translation is 100% complete.
    Other languages:
    Article
    Topic area Machine Learning Ethics
    Prerequisites Machine Learning, Supervised Learning, Classification


    概述

    算法公平性研究如何設計、評估和修改自動化決策系統,以確保其輸出不會對個人或人口群體產生系統性的、不合理的不利影響。該領域處於機器學習、統計學、法律和道德哲學的交叉地帶,隨着預測模型在貸款、招聘、刑事司法、醫療保健和內容審核中的部署,已成為核心關切。該領域提供了分類器或評分規則"公平"含義的形式化定義、用于衡量與這些定義偏離程度的定量指標,以及減少這些偏離的算法干預措施。

    其動機既是經驗性的,也是規範性的。對已部署模型的審計反覆表明,基於歷史數據訓練的系統可能複製或放大數據中存在的差異模式:面部識別模型對深色皮膚女性的錯誤率顯著更高;再犯風險評分對相同真實風險的黑人被告產生的假陽性多於白人被告;簡歷篩選器降低了女子學院畢業生的權重。算法公平性提出兩個截然不同的問題。第一,描述性地:我們如何檢測和量化此類差異?第二,規範性地:哪些差異是不公正的,應當採取何種應對措施?第一個問題主要可以用統計學回答;第二個問題則是不可化約的規範性問題且存在爭議。

    不公平的來源

    模型輸出中的差異源於多種、往往相互疊加的來源。歷史偏差被編碼在標籤本身之中:如果過去的招聘決策存在偏差,那麼一個訓練用於預測"此人是否會被錄用"的模型會學習復現該偏差,即使沒有將受保護屬性用作特徵。表示偏差產生於子群體相對於模型將作用的總體被欠採樣的情形,因此學習到的函數在數據稀疏處準確性較低。測量偏差發生在所選目標是底層興趣構念的有缺陷代理時,例如,當各社區的警務強度不同時,使用逮捕率作為犯罪行為的代理。

    聚合偏差出現在單個模型被擬合到實際為混合體的總體之上,使係數反映出對任何子群體都不甚契合的折中。評估偏差發生於用以宣告模型"良好"的基準本身不具代表性時。最後,部署偏差出現於模型的實際使用條件與其訓練或評估條件不同時,例如人類有選擇地推翻低風險預測但聽從高風險預測。這些來源沒有一種能通過從特徵集中移除受保護屬性來解決,因為相關的代理變量(郵政編碼、姓名、瀏覽歷史)通常仍然存在。

    群體公平性定義

    大多數定量工作集中於群體公平性:對比受保護群體 $ A \in \{0, 1\} $ 之間結果的統計奇偶性屬性。設 $ Y \in \{0, 1\} $ 表示真實標籤,$ \hat{Y} $ 表示模型預測。文獻中主要存在三大類。

    人口奇偶性(也稱為統計奇偶性或獨立性)要求預測與受保護屬性相互獨立: $ {\displaystyle P(\hat{Y} = 1 \mid A = 0) = P(\hat{Y} = 1 \mid A = 1).} $ 其放鬆形式——差異性影響比——以容忍度替代相等性,例如美國平等就業機會委員會的"五分之四規則"。

    均等幾率(分離性)要求各群體之間的真陽性率和假陽性率相等: $ {\displaystyle P(\hat{Y} = 1 \mid Y = y, A = 0) = P(\hat{Y} = 1 \mid Y = y, A = 1) \quad \text{for } y \in \{0, 1\}.} $ 機會均等是其放鬆形式,僅要求真陽性率相等。

    群體內校準(充分性)要求在以模型分數 $ S $ 為條件時,結果與受保護屬性相互獨立: $ {\displaystyle P(Y = 1 \mid S = s, A = 0) = P(Y = 1 \mid S = s, A = 1) \quad \text{for all } s.} $ 當"百分之七十的風險"對兩個群體而言在經驗上意味着相同的內容時,該分數在群體內具有良好的校準性。

    個體公平性

    一種互補的傳統認為群體統計過於粗糙,公平性應在個體層面發揮約束作用。Dwork 及其同事提出的經典表述是"相似的個體應受到相似的對待":對於個體上特定於任務的度量 $ d $ 和輸出分布上的度量 $ D $, $ {\displaystyle D(M(x), M(x')) \leq L \cdot d(x, x'),} $ 其中 $ M $ 為模型,$ L $利普希茨常數。該利普希茨條件的理論吸引力被指定 $ d $ 的困難所抵消:該度量必須編碼個體間哪些差異在道德上對決策具有相關性,而這恰恰是有爭議的問題。在實踐中,個體公平性常通過反事實公平性來近似,後者詢問若對受保護屬性及其在因果模型中的後繼進行干預,預測是否會發生改變。

    不可能性結果

    一組著名的結果表明,主要的群體公平性標準除退化情形外彼此不相容。如果群體間的基礎率不同,$ P(Y = 1 \mid A = 0) \neq P(Y = 1 \mid A = 1) $,那麼沒有任何非平凡的分類器能夠同時滿足群體內的校準和均等幾率。該結果的不同版本見於 Chouldechova 對 COMPAS 再犯工具的分析,以及 Kleinberg、Mullainathan 和 Raghavan 更廣泛的固有權衡定理之中。[1][2] 其含義是設計者必須選擇強制執行哪一性質,因為只要群體在其底層結果率上存在差異,強制執行其中之一就會違反其他性質。

    該結果既被解讀為一種技術奇觀,也被解讀為一種根本性約束。它並未表明公平分類不可能;它表明"公平性"並非單一之物,而"該模型是公平的"之類的陳述必須相對於出於特定理由所選擇的特定標準而言。

    緩解技術

    算法干預通常按其在流水線中的作用位置進行分組。預處理方法對訓練數據進行重新加權或變換,以減少受保護屬性與標籤之間習得的相關性;重加權、公平表示和差異性影響消除器都屬於此類。過程內方法修改訓練目標本身,添加公平性正則化項或將公平性標準作為約束施加;對抗性去偏訓練一個對手從模型表示中預測受保護屬性,並訓練主模型以挫敗該對手。後處理方法保持已訓練的評分器不變,調整特定於群體的決策閾值以滿足所選標準;Hardt、Price 和 Srebro 關於均等幾率的構造是經典範例。[3]

    流水線中的每個位置都涉及權衡取捨。預處理在下游模型之間具有可移植性,但會丟失對預測可能有用的信息。過程內方法能夠產生最佳的精度-公平性前沿,但需要重新訓練。後處理方法成本低且可審計,但要求在決策時獲取受保護屬性,這本身可能不合法或不可取。

    局限性與批評

    算法公平性的形式化框架在多個方面受到批評。最基本的批評是,統計奇偶性標準將受保護屬性視為固定的、可觀察的類別,而實際上種族、性別和殘疾是社會建構的、依語境而行的、並以不穩定的方式被測量。一種更具結構性的批評指出,任何在將預測任務本身視為既定的前提下比較各群體結果的標準,都將擱置預測任務是否應當存在這一更宏大的問題;例如,"公平的"審前羈押評分可能依然加劇大規模羈押。

    該領域還因過度聚焦於具有兩個受保護群體的二元分類而受到批評,忽視了交叉性子群體(在該情形下最壞情況下的差異通常比任何單一維度分析所揭示的更糟)、回歸、排序以及生成模型。近期關於多重校準和多重精度的工作將校準推廣到豐富的重疊子群體集合,而大型語言模型中的公平性已成為一個獨立的研究領域。

    與相關領域的關係

    算法公平性與隱私、魯棒性可解釋性相鄰但不同。差分隱私對對手可從模型輸出中學到的內容給出形式化保證,並可以與公平性發生非平凡的相互作用:為隱私而加入的噪聲可能不成比例地降低小子群體的精度。對分布偏移魯棒性與之相關,因為公平性可重新表述為由受保護屬性所定義的各子總體之間性能的均等性。可解釋性常被援引為通向公平性的路徑——透明的模型可被審計——但透明性對公平的結果而言既非必要也非充分。

    參考文獻

    1. Chouldechova, A. Fair prediction with disparate impact: a study of bias in recidivism prediction instruments, Big Data, 2017.
    2. Template:Cite arxiv
    3. Template:Cite arxiv