Ciao ragazzi! All’inizio di quest’anno,
l’organizzazione di ricerca indipendente,
Ada Lovelace Institute con sede a Londra,
ha ospitato un panel dal titolo The Ethics
Panel to End All Ethics Panels durante la
più grande conferenza mondiale sull’IA,
CogX. Il panel, chiaramente ironico e di autopromozione,
aveva l’obiettivo di sminuire quella infinità
di riflessioni e rapporti governativi sempre
più preoccupati riguardo le questioni etiche
poste dall’IA e dalle nuove tecnologie basate
sull’uso dei dati.
Il 2020 ha visto emergere una nuova ondata
di intelligenza artificiale etica, focalizzata
sulle difficili questioni di potere, equità
e giustizia che sono alla base delle tecnologie
emergenti e diretta a realizzare cambiamenti
attuabili. Questa terza ondata di IA etica
va a sostituire le due che l’hanno preceduta:
la prima definita da principi e filosofie,
e la seconda guidata da informatici ed orientata
agli aggiustamenti tecnici del caso. Questa
terza ondata di intelligenza artificiale etica
ha visto un tribunale olandese chiudere un
sistema algoritmico di rilevamento delle frodi;
studenti nel Regno Unito scendere in piazza
per protestare contro valutazioni agli esami
decise algoritmicamente; e le società statunitensi
limitare volontariamente le loro vendite di
tecnologia di riconoscimento facciale. Tutto
ciò sta portando oltre i principi e gli aspetti
tecnici, verso meccanismi pratici per correggere
gli squilibri di potere ed avvicinarsi il
più possibile alla giustizia individuale e sociale.
Tra il 2016 ed il 2019 sono state pubblicate
74 serie di principi etici o linee guida per
l’IA. Questa è stata la prima ondata di
intelligenza artificiale etica: si erano appena
iniziati a comprendere i potenziali rischi
e le minacce del rapido progresso dell’apprendimento
automatico e delle capacità di intelligenza
artificiale, quindi si iniziava a cercare modi
per contenerli. Nel 2016, AlphaGo batteva
Lee Sedol, portando alla seria considerazione
che l’IA, in generale, fosse a portata di
mano. Il caos causato dagli algoritmi utilizzati
sulle piattaforme duopolistiche mondiali,
Google e Facebook, poi, circondava i due principali
terremoti politici di quell’anno: la Brexit
e l’elezione di Trump. Perciò, in preda
al panico su come capire e prevenire i danni
sempre più evidenti di ciò che stava accadendo,
i responsabili politici e gli sviluppatori
tecnologici si sono rivolti a filosofi ed
esperti di etica per migliorare i codici e
sviluppare degli standard. Gli esperti di
etica, però, spesso riciclavano un sottoinsieme
di medesimi concetti, e raramente andavano
oltre od offrivano dettagli adatti agli specifici
casi d’uso o applicazioni individuali.
In ogni caso, questa prima ondata si è concentrata
sull’etica piuttosto che sul diritto, ha
trascurato le questioni relative all’ingiustizia
sistemica ed al controllo delle infrastrutture,
ed è stata riluttante ad affrontare ciò
che Michael Veale, docente di diritti digitali
e regolamentazione all’University College
di Londra, definisce come il vero nocciolo
della questione: i primi dibattiti sull’IA
etica di solito davano per scontato che l’IA
fosse utile per risolvere i problemi, non
se ne metteva mai in discussione la sua applicazione.
Ciò ha lasciato ogni azione intrapresa aperta
a critiche, come se fosse stata cooptata dalle
grandi aziende tecnologiche per eludere possibili
interventi normativi.
Allo stesso tempo, stava emergendo una seconda
ondata di intelligenza artificiale etica.
Essa cercava di promuovere interventi tecnici
per affrontare i danni etici, in particolare
quelli legati ad equità, pregiudizi e discriminazione.
Il cosiddetto fair-ML, l’apprendimento automatico
equo, è nato con l’obiettivo ammirevole
da parte degli scienziati informatici di incorporare
metriche di equità o vincoli rigidi nei modelli
di intelligenza artificiale, così da moderare
i risultati. Questa attenzione ai meccanismi
tecnici per affrontare le questioni di equità,
pregiudizi e discriminazione ha cercato di
affrontare le preoccupazioni su come l’IA
ed i sistemi algoritmici possano trattare
in modo impreciso ed ingiusto le persone di
colore o le minoranze etniche. Due casi sono
stati il più grande esempio di ciò: il primo
è stato lo studio Gender Shades, che ha stabilito
che il software di riconoscimento facciale
distribuito da Microsoft ed IBM restituiva
tassi più elevati di falsi positivi e falsi
negativi per i volti di donne e persone di
colore. La seconda è stata l’indagine del
2016 sullo strumento algoritmico usato da
Compas, che portava erroneamente e più facilmente
ad assegnare profili ad alto rischio alle
persone di colore rispetto a quelle bianche.
L’IA etica di seconda ondata si è quindi
concentrata su questioni di pregiudizio ed
equità, ed ha esplorato interventi tecnici
per tentare di risolvere tali problematiche.
In tal modo, tuttavia, potrebbe aver distorto
e ristretto il discorso, allontanandolo dalle
implicazioni più profonde sui pregiudizi
stessi e persino esacerbando la posizione
delle persone di colore e delle minoranze
etniche. Come ha sostenuto Julia Powles, direttrice
del Minderoo Tech and Policy Lab presso l’Università
dell’Australia Occidentale, alleviare i
problemi di rappresentatività dei set di
dati può avere la conseguenza di creare e
perfezionare strumenti di sorveglianza e classificazione
ancora più vasti. Quando i problemi sistemici
sottostanti rimangono fondamentalmente intatti,
combattere i pregiudizi rende gli esseri umani
più classificabili dagli algoritmi, esponendo
soprattutto le minoranze a danni aggiuntivi.
Oltretutto il fair-ML può aggravare le pratiche
perseguite delle grandi aziende tecnologiche:
inquadrando i problemi etici come questioni
limitate alla correttezza ed accuratezza dei
set dei dati, le aziende possono equiparare
la raccolta estesa di informazioni con investimenti
sull’IA etica. E gli sforzi delle aziende
tecnologiche per difendere i codici relativi
all’equità illustrano proprio questo punto:
nel gennaio 2018, Microsoft ha pubblicato
i suoi “principi etici” per l'IA, iniziando
con la parola “Fair”; nel maggio 2018,
Facebook ha annunciato uno strumento per “cercare
pregiudizi” chiamato “Fairness Flow”;
e nel settembre 2018, IBM ha annunciato uno
strumento chiamato “AI Fairness 360”,
progettato per verificare la presenza di pregiudizi
indesiderati nei set di dati e nei modelli
di apprendimento automatico.
Quello che mancava all’IA etica di seconda
ondata era il riconoscimento che i sistemi
tecnici sono, in effetti, sistemi socio-tecnici:
in sostanza, non possono essere compresi al
di fuori del contesto sociale in cui sono
impiegati, e non possono essere ottimizzati
per risultati socialmente vantaggiosi ed accettabili
soltanto attraverso modifiche tecniche. Come
ha affermato Ruha Benjamin, professore associato
di studi afroamericani alla Princeton University,
nel suo testo “Race After Technology: Abolitionist
Tools for the New Jim Code”, la strada verso
l’ineguaglianza è lastricata di soluzioni
tecniche. L’attenzione ristretta all’equità
tecnica non è sufficiente per aiutare ad
affrontare tutti i complessi compromessi e
le opportunità ed i rischi di un futuro guidato
dall’IA; limita solamente a pensare riguardo
al funzionamento di un qualcosa, ma non permette
di chiedere come e se quel qualcosa dovrebbe
funzionare. Cioè, l’equità tecnica supporta
un approccio che fa chiedere “Cosa possiamo
fare?” invece di “Cosa si dovrebbe fare?”.
Alla vigilia del nuovo decennio, Karen Hao
del MIT Technology Review ha pubblicato un
articolo intitolato “Nel 2020, fermiamo
il lavaggio etico dell’IA e facciamo davvero
qualcosa”. Alcune settimane dopo, c’è
stata la conferenza annuale ACM su equità,
responsabilità e trasparenza. E tra i vari
interventi c’è stato quello di Elettra
Bietti, Kennedy Sinclair Scholar Affiliate
presso il Berkman Klein Center for Internet
and Society, la quale chiedeva di andare oltre
il “lavaggio etico” ed il “rifiuto dell’etica”.
L'intervento ha portato ad una cascata di
altri interventi che hanno visto la comunità
ri-orientarsi attorno ad un nuovo modo di
parlare di intelligenza artificiale etica,
definito in primis dalla giustizia: giustizia
sociale, giustizia razziale, giustizia economica
e giustizia ambientale. Alcuni hanno addirittura
proposto di eliminare il suffisso “etica”
e tornare a parlare soltanto di IA.
E così, mentre gli eventi imprevisti del
2020 hanno iniziato a consumarsi, assieme
a loro la terza ondata di IA etica ha iniziato
a prendere piede, rafforzata dall’immensa
resa dei conti che il movimento Black Lives
Matter stava catalizzando. L’IA etica di
terza ondata è molto meno concettuale di
quella della prima ondata, ed è interessata
a comprendere applicazioni e casi d’uso,
nonché ad investigare sul potere e a preoccuparsi
delle questioni strutturali, come la decolonizzazione
dell’IA stessa. Un articolo pubblicato su
Nature a luglio 2020 da Pratyusha Kalluri,
fondatrice del Radical AI Network, ha sintetizzato
questo nuovo approccio, sostenendo che “Quando
il campo dell’IA crede di essere neutro,
non riesce a notare dati distorti e costruisce
sistemi che santificano lo status quo e promuovono
gli interessi dei potenti. Quello che serve
è un campo che esponga e critichi i sistemi
che concentrano il potere, mentre co-crea
nuovi sistemi assieme alle comunità colpite:
l’IA da e per le persone”.
Ma cosa significato tutto ciò nella pratica?
Beh, abbiamo visto tribunali iniziare a cimentarsi
con il potere ed il reale potenziale dei sistemi
algoritmici, entrambi ammessi dagli attori
del settore privato e politico. Solo nel Regno
Unito, la Corte d’Appello ha ritenuto illegale
l’uso da parte della polizia dei sistemi
di riconoscimento facciale ed ha chiesto un
nuovo quadro giuridico; un dipartimento governativo
ha imposto la cessazione dell’uso dell’IA
per lo smistamento delle domande di visto;
il comitato consultivo etico della polizia
del West Midlands ha sostenuto l’interruzione
di uno strumento di previsione della violenza;
e gli studenti delle scuole superiori di tutto
il paese hanno protestato dopo che a decine
di migliaia di loro che avevano abbandonato
gli studi erano stati declassati i voti da
un sistema algoritmico utilizzato dal regolatore
dell’istruzione, Ofqual. La Nuova Zelanda
ha pubblicato una Carta degli algoritmi, e
la francese Etalab (una task force governativa
per gli open data, la politica dei dati ed
il governo aperto) ha lavorato per mappare
i sistemi algoritmici in uso tra le entità
del settore pubblico per fornire indicazioni.
Lo spostamento dello sguardo degli studi sull’IA
etica dal tecnico al socio-tecnico ha messo
in luce molte più questioni, come le pratiche
anticoncorrenziali delle grandi aziende tecnologiche,
le problematiche dei lavoratori della gig
economy, e via discorrendo. Ha visto la finestra
di Overton contrarsi in termini di ciò che
è accettabile per la reputazione delle società
tecnologiche: dopo anni di campagne da parte
di ricercatori come Joy Buolamwini e Timnit
Gebru, aziende come Amazon ed IBM hanno finalmente
adottato moratorie volontarie sulle loro vendite
di tecnologia di riconoscimento facciale.
La crisi COVID, poi, ha fatto emergere progressi
tecnici che hanno contribuito a correggere
gli squilibri di potere che esacerbano i rischi
dell’IA e dei sistemi algoritmici. La disponibilità
del protocollo decentralizzato Google / Apple
per abilitare la notifica di esposizione ha
impedito a dozzine di governi di lanciare
invasive app di tracciamento digitale dei
contatti. Allo stesso tempo, però, la risposta
dei governi alla pandemia ha inevitabilmente
catalizzato nuovi rischi, poiché la sorveglianza
della salute pubblica ha portato ad una maggiore
sorveglianza della popolazione con i sistemi
di riconoscimento facciale che sono stati
migliorati per aggirare le mascherine, e la
minaccia di future pandemie è stata sfruttata
per giustificare analisi più dettagliate sui social.
Gli istituti di ricerca e gli attivisti uniti
dall’approccio della terza ondata di IA
etica continuano a lavorare per affrontare
questi rischi, concentrandosi su strumenti
pratici per la responsabilità, il contenzioso,
la protesta e con campagne per moratorie e
divieti. I ricercatori si stanno interrogando
su cosa significhi la parola giustizia in
società guidate dai dati, ed istituti come
Data & Society, Data Justice Lab presso l’Università
di Cardiff, JUST DATA Lab a Princeton, ed
il progetto Global Data Justice presso il
Tilberg Institute for Law, Technology and
Society nei Paesi Bassi stanno sfornando alcune
delle idee più innovative. La Fondazione
Minderoo ha appena lanciato la sua nuova iniziativa
con una sovvenzione di 15 milioni di dollari,
con l’obiettivo di affrontare l’illegalità,
responsabilizzare i lavoratori e reimmaginare
il settore tecnologico. Ma l’approccio dell’IA
etica di terza ondata non è ancora accettato
in tutto il settore tecnologico, e c’è
ancora molta strada da fare.
Sebbene il panel della Ada Lovelace Institute
avesse in programma diversi relatori,
non è riuscito ad includere una persona di colore,
un’omissione per la quale l’organizzazione
è stata giustamente criticata. Ma questo
è solo un promemoria che ci ricorda che,
fintanto che il dominio dell’etica dell’IA
continuerà a preferire alcuni tipi di approcci
di ricerca, professionisti e prospettive etiche
ad esclusione di altri, il vero cambiamento
sfuggirà. L’IA etica non può essere definita
solo da attori europei e nordamericani: si
deve lavorare in gruppo per far emergere altre
prospettive, altri modi di pensare a questi
problemi, per tentare veramente di trovare
un modo di far funzionare dati ed IA per le
persone e le società di tutto il mondo.
Voi che ne pensate? Vi aspetto nei commenti
e ci sentiamo alla prossima puntata!
