Enea Lombardi, Doing justice to algorithms. Integrating fairness metrics with a structural understanding of justice

Autore: | Rubrica: Questioni | 22 Visite No comments

Abstract

Questo articolo esplora i limiti dell’equità algoritmica, in particolare il “teorema dell’impossibilità dell’equità”, e discute come una comprensione strutturale della giustizia possa affrontare le relative questioni etiche. Dopo aver presentato i principali modelli di equità algoritmica, sostengo che essi trascurano questioni fondamentali di giustizia, dando priorità a metriche basate sui risultati e isolando il processo decisionale da contesti sociostorici più ampi. Inoltre, quando i tassi di base differiscono, diventa impossibile soddisfare contemporaneamente più di una metrica di equità. Per ovviare a queste carenze, propongo di integrare l’equità algoritmica con la nozione di ingiustizia strutturale di Iris M. Young, che tiene conto delle disuguaglianze radicate nell’interazione tra comportamenti, norme e istituzioni. Questo approccio colloca gli algoritmi nel loro contesto socio-storico più ampio, sottolineando i fattori sistemici che influenzano il processo decisionale e perpetuano risultati ingiusti. Sostengo inoltre che una prospettiva strutturale assegna agli algoritmi un duplice ruolo, in particolare nei casi controversi in cui sono in gioco questioni etiche. In primo luogo, una funzione diagnostica: mettendo in luce gli squilibri e i pregiudizi etici sottostanti, gli algoritmi possono evidenziare le aree critiche per le riforme sistemiche. In secondo luogo, possono fungere da strumenti di valutazione, consentendo la valutazione e la definizione delle priorità delle metriche di equità caso per caso.

Abstract (english)

This paper explores the limitations of algorithmic fairness, particularly the “impossibility theorem of fairness”, and discusses how a structural understanding of justice can address the related ethical concerns. After presenting the main models of algorit hmic fairness, I argue that they overlook key justice concerns by prioritizing outcome -based metrics and isolating decision-making from broader socio-historical contexts. Furthermore, when base rates differ, it becomes impossible to satisfy more than one fairness metric simultaneously. To address these shortcomings, I propose integrating algorithmic fairness with Iris M. Young’s notion of structural injustice, which accounts for entrenched inequalities rooted in the interplay of behaviors, norms, and institutions. This approach situates algorithms within their broader socio-historical context, emphasizing systemic factors that influence decision-making and perpetuate unjust outcomes. I further contend that a structural perspective assigns algorithms a twofold role, particularly in contentious cases where ethical controversies are at play. First, a diagnostic function: by exposing underlying ethical imbalances and biases, algorithms can highlight critical areas for systemic reforms. Second, they can serve as evaluative tools, enabling the assessment and prioritization of fairness metrics on a case-by-case basis.


http://www.cheapadultwebcam.com