Il discorso sull’etica dell’intelligenza artificiale (IA) riguarda tutti ed è più che mai aperto. Basta pensare alla sciagura dell’incorporazione, più o meno involontaria, della discriminazione razziale nei sistemi di IA. In alcuni casi la soluzione è includere la diversità nei data set con i quali sono addestrati gli algoritmi, in altri invece non basta, dato che la discriminazione tecnologica è una conseguenza inconscia di quella sociale.
Un esempio emblematico è un importante algoritmo per il triage, usato negli Stati Uniti, che sottostimava le necessità mediche dei pazienti afroamericani, ma non sulla base della “razza”, ma a causa del fatto che era stato programmato per assegnare ai pazienti punteggi di rischio basati sui loro costi sanitari e, negli USA, si spendono mediamente molti meno soldi per la salute dei pazienti neri rispetto ai bianchi. Se il design dell’applicazione fosse stato affrontato considerando anche i fattori legati al contesto e all’etica, forse non si sarebbe generata quella discriminazione.
L’etica è un tema cruciale perché ogni volta che un sistema prende una decisione, le conseguenze ricadono sulle persone. È preoccupante scoprire, per esempio, che un’azienda importante come Google, che fornisce servizi diventati parte integrante della nostra vita quotidiana, licenzi la ricercatrice Margaret Mitchell dopo aver scoperto che cercava prove della discriminazione nei confronti della sua collega Timnit Gebru, precedentemente licenziata e nota per le sue ricerche sui pregiudizi incorporati nelle tecnologie di riconoscimento facciale. Entrambe erano leader del gruppo di ethical AI e, all’epoca del licenziamento di Gebru, lavoravano a un paper che evidenziava i pericoli dei modelli di elaborazione linguistica di grandi dimensioni. Al di là delle motivazioni dei licenziamenti, su cui non discuto, la dinamica è inquietante.
Il punto è che questi temi riguardano tutta l’umanità ed è giusto chiedersi se sia corretto che il livello di inclusività (o di discriminazione) incorporato nelle applicazioni, sia affidato alla buona fede di poche grandi aziende private e istituzioni governative o militari. Tu, ti fidi? In altre parole, anche senza mettere in discussione la buona fede di tutti gli attori coinvolti nelle vicende che ho descritto, senza regolamenti imparziali e transnazionali, non si va da nessuna parte.
C’è un tema anche legato ai diritti umani che si nasconde dietro l’intelligenza artificiale. Per esempio, Il fatto che OpenAI abbia usato lavoratori kenioti pagati meno di 2 dollari l’ora per rimuovere i dati tossici dai data set di addestramento di ChatGPT, fa riflettere.
Insomma, agli entusiasti dell’IA consiglierei di fare attenzione a cosa si nasconde dietro questo hype e a dare un’occhiata alla catena di approvvigionamento delle aziende che propongono miracoli.