CAMBRIDGE – Gli algoritmi sono tendenziosi come i dati di cui si nutrono. E tutti i dati sono tendenziosi. Anche le statistiche “ufficiali” non possono essere considerate “fatti” obiettivi ed eterni. I dati che i governi pubblicano rappresentano la società com’è ora, attraverso la lente di ciò che coloro che assemblano dati considerano rilevante e importante. Le categorie e le classificazioni utilizzate per dare senso ai dati non sono neutrali. Esattamente come misuriamo ciò che vediamo, così tendiamo a vedere solo ciò che misuriamo.
Da un lato l’approccio algoritmico permea diverse aree politiche, dall’altro getta una luce diretta sulle asimmetrie sociali che un tempo si nascondevano all’ombra dei dati che raccogliamo. Estremizzando le strutture e i processi esistenti a livello logico, l’intelligenza artificiale (AI) ci spinge a confrontarci con il tipo di società che abbiamo creato.
Il problema non è solo che i computer sono ideati per pensare come società per azioni, come ha sostenuto il mio collega dell’Università di Cambridge Jonnie Penn, ma anche che i computer pensano come gli economisti. Un’AI, dopo tutto, è la massima espressione immaginabile di homo economicus. È un agente in grado di calcolare razionalmente, di essere coerente a livello logico e orientato alle finalità, in grado di raggiungere i risultati sperati con limitate risorse computazionali. Quando si tratta di “massimizzare l’utilità”, sono di gran lunga più efficaci di qualsiasi umano.
L’“utilità” è per gli economisti quello che un tempo era il “flogisto” per la chimica. I primi chimici ipotizzavano che la materia combustibile contenesse un elemento nascosto – il flogisto – che potesse spiegare perché le sostanze cambiavano forma durante la combustione. Eppure, per quanto ci provino, gli scienziati non hanno mai confermato l’ipotesi. Non sono riusciti a comprendere il flogisto per la stessa ragione per cui gli economisti oggi non riescono a calcolare come misurare l’utilità attuale.
Gli economisti usano il concetto di utilità per spiegare perché le persone fanno le scelte che fanno – cosa comprare, dove investire, quanto lavorare duramente: ciascuno tenta di massimizzare l’utilità in base alle proprie preferenze e convinzioni sul mondo, e nei limiti posti dalla scarsità di reddito o risorse. Pur non esistendo, l’utilità è un costrutto potente. È naturale supporre che ognuno tenti di fare del proprio meglio per sé stessi.
Inoltre, la nozione di utilità degli economisti nasce dall’utilitarismo classico, che punta a garantire la maggiore quantità di beni per il maggior numero di persone. Come i moderni economisti che seguono le orme di John Stuart Mill, la maggior parte di chi realizza algoritmi rientra tra gli utilitaristi che credono che se un “bene” è noto, allora può essere massimizzato.
Ma tale assunto può produrre risultati preoccupanti. Consideriamo, ad esempio, come gli algoritmi vengono utilizzati per decidere se i detenuti meritino la semilibertà. Secondo un importante studio del 2017 gli algoritmi superano di gran lunga le performance degli umani nel predire i tassi di recidiva, e potrebbero essere impiegati per ridurre il “tasso di incarcerazione” di oltre il 40% “senza incremento dei tassi di criminalità”. Negli Stati Uniti, poi, i sistemi di Intelligenza Artificiale potrebbero essere utilizzati per ridurre la popolazione carceraria sproporzionalmente nera. Ma cosa accadrebbe se l’Intelligenza Artificiale prendesse il sopravvento sul processo di semilibertà e gli afro-americani continuassero ad essere incarcerati a tassi più elevati rispetto ai bianchi?
L’elevata efficacia delle decisioni algoritmiche ha messo in evidenza tali domande, spingendoci a decidere esattamente quali risultati debbano essere massimizzati. Desideriamo solamente ridurre la popolazione carceraria totale, oppure dovremmo pensare anche all’equità? Mentre la politica consente elusioni e concessioni per celare questi compromessi, il codice informatico richiede chiarezza.
Questa richiesta di chiarezza rende più difficile ignorare le fonti strutturali di disuguaglianza sociali. Nell’era dell’Intelligenza Artificiale, gli algoritmi ci costringeranno a riconoscere come i risultati dei passati conflitti sociali e politici siano stati perpetuati nel presente attraverso il nostro uso dei dati.
Grazie a gruppi come AI Ethics Initiative e Partnership on AI, inizia ad emergere un dibattito più ampio sull’etica dell’AI. Ma gli algoritmi dell’Intelligenza Artificiale stanno ovviamente facendo ciò per cui sono codificati. La vera questione va oltre l’uso di decisioni algoritmiche nel governo societario e politico, e mina le fondamenta etiche delle nostre società.
Se da un lato abbiamo certamente bisogno di dibattere sui compromessi pratici e filosofici più adatti a massimizzare l’“utilità” tramite l’Intelligenza Artificiale, dall’altro dobbiamo fare delle riflessioni personali. Gli algoritmi stanno ponendo delle domande fondamentali su come abbiamo organizzato sinora le relazioni sociali, politiche ed economiche. Ora sta a noi decidere se intendiamo davvero codificare gli attuali impegni sociali in strutture decisionali del futuro. Considerata la fratturazione politica attualmente in atto nel mondo, questo sembra un buon momento per scrivere un nuovo copione.
CAMBRIDGE – Gli algoritmi sono tendenziosi come i dati di cui si nutrono. E tutti i dati sono tendenziosi. Anche le statistiche “ufficiali” non possono essere considerate “fatti” obiettivi ed eterni. I dati che i governi pubblicano rappresentano la società com’è ora, attraverso la lente di ciò che coloro che assemblano dati considerano rilevante e importante. Le categorie e le classificazioni utilizzate per dare senso ai dati non sono neutrali. Esattamente come misuriamo ciò che vediamo, così tendiamo a vedere solo ciò che misuriamo.
Da un lato l’approccio algoritmico permea diverse aree politiche, dall’altro getta una luce diretta sulle asimmetrie sociali che un tempo si nascondevano all’ombra dei dati che raccogliamo. Estremizzando le strutture e i processi esistenti a livello logico, l’intelligenza artificiale (AI) ci spinge a confrontarci con il tipo di società che abbiamo creato.
Il problema non è solo che i computer sono ideati per pensare come società per azioni, come ha sostenuto il mio collega dell’Università di Cambridge Jonnie Penn, ma anche che i computer pensano come gli economisti. Un’AI, dopo tutto, è la massima espressione immaginabile di homo economicus. È un agente in grado di calcolare razionalmente, di essere coerente a livello logico e orientato alle finalità, in grado di raggiungere i risultati sperati con limitate risorse computazionali. Quando si tratta di “massimizzare l’utilità”, sono di gran lunga più efficaci di qualsiasi umano.
L’“utilità” è per gli economisti quello che un tempo era il “flogisto” per la chimica. I primi chimici ipotizzavano che la materia combustibile contenesse un elemento nascosto – il flogisto – che potesse spiegare perché le sostanze cambiavano forma durante la combustione. Eppure, per quanto ci provino, gli scienziati non hanno mai confermato l’ipotesi. Non sono riusciti a comprendere il flogisto per la stessa ragione per cui gli economisti oggi non riescono a calcolare come misurare l’utilità attuale.
Gli economisti usano il concetto di utilità per spiegare perché le persone fanno le scelte che fanno – cosa comprare, dove investire, quanto lavorare duramente: ciascuno tenta di massimizzare l’utilità in base alle proprie preferenze e convinzioni sul mondo, e nei limiti posti dalla scarsità di reddito o risorse. Pur non esistendo, l’utilità è un costrutto potente. È naturale supporre che ognuno tenti di fare del proprio meglio per sé stessi.
Inoltre, la nozione di utilità degli economisti nasce dall’utilitarismo classico, che punta a garantire la maggiore quantità di beni per il maggior numero di persone. Come i moderni economisti che seguono le orme di John Stuart Mill, la maggior parte di chi realizza algoritmi rientra tra gli utilitaristi che credono che se un “bene” è noto, allora può essere massimizzato.
BLACK FRIDAY SALE: Subscribe for as little as $34.99
Subscribe now to gain access to insights and analyses from the world’s leading thinkers – starting at just $34.99 for your first year.
Subscribe Now
Ma tale assunto può produrre risultati preoccupanti. Consideriamo, ad esempio, come gli algoritmi vengono utilizzati per decidere se i detenuti meritino la semilibertà. Secondo un importante studio del 2017 gli algoritmi superano di gran lunga le performance degli umani nel predire i tassi di recidiva, e potrebbero essere impiegati per ridurre il “tasso di incarcerazione” di oltre il 40% “senza incremento dei tassi di criminalità”. Negli Stati Uniti, poi, i sistemi di Intelligenza Artificiale potrebbero essere utilizzati per ridurre la popolazione carceraria sproporzionalmente nera. Ma cosa accadrebbe se l’Intelligenza Artificiale prendesse il sopravvento sul processo di semilibertà e gli afro-americani continuassero ad essere incarcerati a tassi più elevati rispetto ai bianchi?
L’elevata efficacia delle decisioni algoritmiche ha messo in evidenza tali domande, spingendoci a decidere esattamente quali risultati debbano essere massimizzati. Desideriamo solamente ridurre la popolazione carceraria totale, oppure dovremmo pensare anche all’equità? Mentre la politica consente elusioni e concessioni per celare questi compromessi, il codice informatico richiede chiarezza.
Questa richiesta di chiarezza rende più difficile ignorare le fonti strutturali di disuguaglianza sociali. Nell’era dell’Intelligenza Artificiale, gli algoritmi ci costringeranno a riconoscere come i risultati dei passati conflitti sociali e politici siano stati perpetuati nel presente attraverso il nostro uso dei dati.
Grazie a gruppi come AI Ethics Initiative e Partnership on AI, inizia ad emergere un dibattito più ampio sull’etica dell’AI. Ma gli algoritmi dell’Intelligenza Artificiale stanno ovviamente facendo ciò per cui sono codificati. La vera questione va oltre l’uso di decisioni algoritmiche nel governo societario e politico, e mina le fondamenta etiche delle nostre società.
Se da un lato abbiamo certamente bisogno di dibattere sui compromessi pratici e filosofici più adatti a massimizzare l’“utilità” tramite l’Intelligenza Artificiale, dall’altro dobbiamo fare delle riflessioni personali. Gli algoritmi stanno ponendo delle domande fondamentali su come abbiamo organizzato sinora le relazioni sociali, politiche ed economiche. Ora sta a noi decidere se intendiamo davvero codificare gli attuali impegni sociali in strutture decisionali del futuro. Considerata la fratturazione politica attualmente in atto nel mondo, questo sembra un buon momento per scrivere un nuovo copione.