Salta al contenuto
Close
Hit enter to search or ESC to close

La user experience dell’intelligenza artificiale

Ultima modifica: 1 giugno 2019. English version on Medium.

Scelgo di parlare di intelligenza artificiale e user experience iniziando dalla filosofia della mente. Il rischio qui, se non ci si accorda sulle basi culturali, è di essere avventati quanto gli entusiasti e imprudenti quanto i detrattori. Per cui io ti avverto: questo è un lungo articolo.

Fingiamo di essere un gruppo di nerd che, dopo una notte passata a giocare a giochi di ruolo mangiando comfort food, medita sulle fondamenta filosofiche della progettazione di un’intelligenza artificiale capace di identificare le emozioni umane e, forse, provarle.

Che cos’è un’emozione? Il senso comune, le prospettive evoluzionistiche e neurofisiologiche, le diverse teorie psicologiche. Quale di questi è il punto di partenza corretto per definire un’emozione? Per iniziare in modo semplice, possiamo assumere che per provare un’emozione devi essere cosciente. Sicuramente è vero, ma cos’è la coscienza?

Se condividi il pensiero di Daniel Dennett, negherai l’esistenza stessa della coscienza. Se, tuttavia, Alva Noë ti convince, sarai sicuro che la coscienza non ha origine esclusivamente nel sistema nervoso centrale. Se hai seguito le idee di Edelman, sarai affascinato dal riduzionismo biologico. Se ti piace il grande Douglas Hofstadter, i concetti di strani anelli e ricorsione ti saranno familiari, e così via.

Sembrava più semplice, vero?

Indice

  1. Il tuo livello culturale definisce le tue credenze.
  2. Le tue credenze influenzano il design.
  3. È possibile progettare le esperienze degli altri?
  4. È possibile costruire una macchina che riconosca e risponda alle emozioni umane?
  5. Siamo certi che le classificazioni delle emozioni abbiano senso?
  6. E allora?
  7. La definizione di intelligenza.
  8. Il problema dell’intelligenza artificiale è nel suo nome.
  9. Qual è il ruolo della UX in questo scenario?

Il tuo livello culturale definisce le tue credenze

Confrontiamo due classici e antitetici approcci alle emozioni insieme un terzo approccio più contemporaneo:

  1. Le teorie evoluzionistiche, in cui le emozioni si riducono a meccanismi di regolazione biologica funzionanti in parziale autonomia rispetto ai processi coscienti.
  2. Le teorie cognitiviste, che trattano le emozioni come processi inferenziali simili a quelli del ragionamento e basati sulla logica proposizionale.

Più di recente, Lisa Barrett ha proposto una spiegazione controintuitiva sulla natura delle emozioni che lei chiama theory of constructed emotion. Secondo Barrett, queste non sono reazioni incontrollabili incorporate nel cervello; sono supposizioni, previsioni che la mente utilizza per dare un senso al mondo, per costruire la tua esperienza al riguardo. E tu hai il controllo su di esse. Consiglio di guardare il suo TED Talk e leggere il suo libro .

In short, we find that your emotions are not built-in but made from more basic parts. They are not universal but vary from culture to culture. They are not triggered; you create them. They emerge as a combination of the physical properties of your body, a flexible brain that wires itself to whatever environment it develops in, and your culture and upbringing, which provide that environment.
Barrett, Lisa Feldman. How Emotions Are Made: The Secret Life of the Brain. HMH Books. Kindle Edition.

Quindi chi ha ragione? Chissà. Comunque io tifo per Barrett.

Le nostre credenze sul funzionamento della mente sono diretta conseguenza della nostra cultura. Per esempio, ipotizziamo che la teoria di Barrett sia quella corretta, ma tu non la conosca. In mancanza di una spiegazione univoca, definitiva e inconfutabile di un fenomeno, le tue convinzioni saranno sempre limitate alla teoria di riferimento che conosci. Teoria che userai per il tuo progetto di automa emozionale, sbagliando.

Le tue credenze influenzano il design

Molti anni fa, non ricordo più dove, lessi un’analisi di alcune famose teorie del ventesimo secolo. L’autore stava cercando di metterle in relazione con la tecnologia dominante in quel momento. Per esempio, il concetto freudiano di libido (che secondo Freud è un flusso di energia psichica) è stato concepito nell’era dei motori a vapore, mentre l’idea della simulazione della mente al calcolatore è emersa negli anni di sviluppo esponenziale dell’informatica e così via. Se ne potrebbe dedurre che la tecnologia guida i nostri tentativi di spiegare il mondo, anche se il determinismo tecnologico è una strada pericolosa da percorrere.

Uno scienziato cognitivo degli anni ’70 del secolo scorso probabilmente sosterrebbe che il nostro cervello elabora le informazioni sotto forma di rappresentazioni simboliche – la mente è il software che gira sull’hardware neurale – e che è possibile simulare processi mentali umani su un computer, una macchina con architettura seriale di Von Neumann, indipendentemente dalla specificità dell’hardware neurale. Sembra un approccio affascinante, vero? Ma questa idea è stata superata da molto tempo. La scienza cognitiva classica, come ogni altra teoria, è il prodotto di un’epoca specifica.

Quindi, abbiamo un problema: come possiamo progettare un software intelligente se non siamo sicuri delle nostre ipotesi su cosa sia la mente e come funzioni? Sembra almeno necessario definire quali sono gli assunti filosofici impliciti nella nostra idea di design. Soprattutto se vogliamo creare un artefatto che imiti la mente o le emozioni. Ma anche quando sei consapevole di un bias cognitivo, ci caschi.

Sono certo, però, che ci stiamo perdendo qualcos’altro parlando di emozioni. Un’emozione, indipendentemente da come funzioni, è di sicuro un’esperienza.

È possibile progettare le esperienze degli altri?

La risposta è no. Non puoi. Non importa se nel tuo job title su LinkedIn affermi con orgoglio di essere un Experience Designer, non c’è modo di farlo, e ti spiegherò perché introducendo nel discorso le proprietà qualitative dell’esperienza: i qualia.

Assaggiare un vino provoca una sensazione gustativa in chi lo beve e chiunque abbia ascoltato un sommelier descrivere un vino sa quanto sia difficile condividere questi stati mentali qualitativi. Puoi farlo solo usando analogie, a volte imbarazzanti. Per esempio come l’analogia coraggiosa che usò Luigi Veronelli:

(…) l’Associazione Italiana Sommelier, prima di limitarsi alla freddezza descrittiva propria del linguaggio degli enotecnici, considerava Veronelli il vero punto di riferimento, almeno fino a quando su ‘Il Vino’, mensile dell’associazione, non scrisse la parola ‘sperma’ per commentare il gusto di uno Champagne Vintage Krug 1976.
Pietro Stara, Le eredità linguistiche di Luigi Veronelli.

Se mostri una rosa rossa a qualcuno che non sia daltonico o non vedente, quella persona molto probabilmente riconoscerà il fatto che la rosa è rossa, ma se chiedi alle persone di spiegare la loro esperienza personale del rosso, le cose diventano strane. Qual è l’essenza, l’unicità del rosso rispetto, ad esempio, al verde? Prova a descrivere questa qualità, chiamiamola la rossità del rosso. Scommetto che lo troverai impegnativo.

I nostri qualia sono come quelli degli altri? Può essere. La nostra biologia è praticamente la stessa quindi i nostri qualia sono probabilmente molto simili. Ma è solo un’inferenza. Se ammettiamo che è difficile descrivere le nostre esperienze qualitative, pur essendo noi stessi, come possiamo progettare un algoritmo che includa concetti che sfuggono alla descrizione?

Ecco perché progettare un’esperienza è praticamente impossibile.

Tuttavia, c’è ancora speranza per il popolo degli UX designer, come afferma Elizabeth B.-N. Sanders:

I will argue that there is no such thing as experience design. Experiencing is in people and you can’t design it for someone else. You can, however, design for experiencing.

È possibile costruire una macchina che riconosca e risponda alle emozioni umane?

Se una macchina è addestrata a riconoscere un pattern in un’espressione facciale e, grazie ad un catalogo di pattern definito a priori, lo associa a una particolare emozione, è davvero in grado di afferrare uno stato mentale umano?

Gli esseri umani esprimono le emozioni anche attraverso il comportamento complesso, non solo attraverso le espressioni facciali, i cambiamenti della pressione sanguigna o altri schemi fisiologici. Ed esistono persone che non sono in grado di esprimere emozioni, ma di certo non possiamo essere così arroganti da presumere che non le provino.

Quello che si può costruire è una macchina che fornisca un output coerente con i pregiudizi del progettista. Il primo pregiudizio? La classificazione delle emozioni.

We don’t understand all that much about emotions to begin with, and we’re very far from having computers that really understand that. I think we’re even farther away from achieving artificial empathy. Some people cry when they’re happy, a lot of people smile when they’re frustrated. So, very simplistic approaches, like thinking that if somebody is smiling they’re happy, are not going to work.
Bill Mark, citato nell’articolo: AI Challenge: Achieving Artificial Empathy.

Questa citazione, che sembra confermare i miei pensieri, è piena di assunti e pregiudizi. Ti sfido a individuarli.

Siamo certi che le classificazioni delle emozioni abbiano senso?

Molte emozioni sono tipiche di una determinata cultura. Analizziamo quattro esempi tratti dal libro di Tiffany Watt-Smith, The Book of Human Emotions:

  1. Gli Ifaluk delle Isole Caroline in Micronesia, un popolo prevalentemente pacifico e cooperativo, hanno un concetto emotivo chiamato phage, un misto di compassione, amore e tristezza, che si attiva di fronte a una persona bisognosa e si sublima nell’atto di prendersene cura.
  2. I Baining delle montagne della Papua Nuova Guinea credono che quando gli ospiti se ne vanno rilascino una sorta di pesantezza, apparentemente per viaggiare più leggeri. Questa opprimente nebbia emotiva dura tre giorni e provoca sentimenti di distrazione e apatia che interferiscono con le normali attività. Pertanto, quando gli ospiti se ne vanno, la famiglia esegue un rituale speciale per scongiurare l’awumbuk e tornare alla vita normale.
  3. Gli olandesi chiamano gezelligheid il particolare stato emotivo di conforto e benvenuto sperimentato insieme ad un gruppo di amici che sono isolati in un luogo chiuso, accogliente e familiare.
  4. Per i Pintupi, che vivono nel deserto dell’Australia occidentale, ci sono quindici diversi tipi di paura. Il nginyiwarrarringu è l’improvvisa scossa di allarme che fa alzare la gente e guardarsi intorno per vedere cosa l’ha provocata.

Questa ricchezza antropologica dovrebbe farci ripensare alle nostre semplicistiche categorizzazioni delle emozioni umane. Se, per esempio, descriviamo l’atomo della paura in un modo abbastanza semplice da poterlo integrare in un algoritmo, non credi che ci stiamo perdendo qualcosa?

E allora?

Se vuoi progettare una macchina emotiva non puoi evitare di prendere posizione nel dibattito sulla natura delle emozioni (accadrà anche se non te ne accorgi). Così facendo, sarai vittima dei tuoi assunti filosofici e teorici che potrebbero, se sbagliati, farti iniziare il progetto con un errore.
Successivamente, per rendere questa macchina in grado di simulare e comprendere il comportamento umano, dovrai semplificare molto le cose e questa estrema semplificazione ti farà perdere di vista l’oggetto stesso del tuo progetto.

E, per me, questo è vero per qualsiasi dominio di intelligenza artificiale quando si tratta di simulare esperienze umane.

La definizione di intelligenza

Esistono molte definizioni di intelligenza e riflettono sia il momento in cui sono state proposte sia le ipotesi di coloro che le hanno create.
Nel suo libro Intelligence Psychology, Christopher Robertson sintetizza definizioni, teorie, sistemi di misurazione e tipi di intelligenza.

Secondo Robertson, le definizioni proposte da gruppi o organizzazioni sono diciotto, mentre quelle proposte dagli psicologi sono trentacinque. Molte sono simili, ma il numero resta impressionante. Inoltre, Robertson elenca diverse teorie sull’intelligenza umana: psicometriche, cognitive, cognitive-contestuali, biologiche e così via. E non possiamo di certo dimenticare la teoria dello sviluppo cognitivo di Jean Piaget.

Detto questo, chi ha ragione? Qual è la migliore definizione di intelligenza? Sta a te scegliere.

Se vogliamo chiamare una macchina “intelligente”, che tipo di intelligenza dovrebbe avere? Ambientale, musicale, logico/matematica, interpersonale, corporea-cinestesica, linguistica, intrapersonale, spaziale, esistenziale-spirituale?

Indipendentemente dal tipo di intelligenza, come dovrebbero svilupparsi le abilità cognitive artificiali? Gradualmente come negli umani, grazie al progressivo sviluppo del sistema cognitivo, o dovrebbero essere incorporate nella macchina sin dall’inizio?

Per impiantare una capacità cognitiva umana in una macchina, il progettista deve almeno sapere come funziona questa capacità negli esseri umani. Altrimenti, come potrebbe progettare un algoritmo per emularla? D’altro canto, per costruire una macchina in grado di apprendere nello stesso modo in cui noi lo facciamo, è necessario sapere esattamente come funziona il processo di apprendimento umano.

Se pensi che oggi il sistema cognitivo umano non abbia più segreti, va bene. Non avremo problemi a replicarlo. Onestamente, io non la penso così.

Il problema dell’intelligenza artificiale è nel suo nome

Non fraintendermi io non discuto il fatto che Turing probabilmente avesse ragione e che prima o poi ci saranno macchine non-organiche piene di porte NAND in grado di eseguire qualsiasi computazione a livello umano e oltre (apprendimento, pensiero, creatività e così via). Vedremo (probabilmente non noi personalmente, qualcuno vedrà). Critico il fatto che oggi si parli di intelligenza, antropomorfizzando pezzi di software, solo per una banale strategia di marketing.

L’idea dell’intelligenza artificiale ha subito una notevole evoluzione negli ultimi sessant’anni. A partire dalla scienza cognitiva hard degli anni sessanta, fino alle reti neurali e alle idee più recenti. Tuttavia, è essenziale capire che oggi la scienza cognitiva e l’intelligenza artificiale sono discipline distinte.

Questa storia lunga cinquant’anni in cui gli scienziati cognitivi associavano entusiasticamente la crescita esponenziale della capacità computazionale dei computer con la possibilità di simulare o superare la mente umana è finita.

È questa narrativa di esagerazione del potere dei calcolatori che ha causato l’uso improprio della parola intelligenza. Una parola che può generare confusione, paura o anche senso del ridicolo se associata ad agenti poco più complicati di un termostato. Così come l’aggettivo artificiale se correlato a concetti elusivi come l’emozione o la coscienza.

Le basi dell’intelligenza artificiale contemporanea sono matematica, economia, neuroscienze, psicologia, filosofia, ingegneria informatica, controllo automatico, cibernetica e linguistica: una costellazione di competenze e visioni del mondo notevolmente diverse. Le applicazioni spaziano dalla comprensione del linguaggio naturale al riconoscimento della scrittura, alla traduzione automatica, la robotica, i filtri collaborativi, motori di ricerca, riconoscimento facciale, analisi dei social network, sentiment analysis, automobili a guida autonoma e così via.

I cosiddetti agenti intelligenti sono dispositivi digitali e fisici che migliorano l’esperienza umana di un servizio o di un prodotto e, probabilmente, miglioreranno (o peggioreranno, il dibattito è ancora aperto) la qualità della nostra vita. Non c’è coscienza, intelligenza o emozione in questi artefatti. Fatevene una ragione.

We forget that AI is a story we computer scientists made up to help us get funding once upon a time, back when we depended on grants from government agencies. It was pragmatic theatre. But now AI has become a fiction that has overtaken its authors.
Jaron Lanier

Qual è il ruolo della UX in questo scenario?

Nel manuale forse più autorevole sull’Intelligenza Artificiale, Russel e Norvig dedicano solo 2 pagine su 1132 alla filosofia della mente 1.

C’è un abisso di ignoranza rispetto alla psicologia e alla filosofia della mente nel mondo dell’ingegneria del software. Non è colpa di nessuno. Viviamo ancora il colpo di coda di un mondo in cui la verticalizzazione delle competenze era lo standard. Rispetto a questi temi, nel mondo accademico come in quello aziendale, siamo al livello evolutivo dei liceali: la 4B contro quelle merdacce della 4C e viceversa. Non c’è quella visione sistemica che, per fare solo un esempio, dovrebbe imporre a un programmatore di informarsi sui temi dell’intenzionalità e della comunicazione umana prima di progettare un chatbot.

Non è un caso che le menti più brillanti nel mondo dell’AI stiano evidenziando i rischi di incorporare i propri pregiudizi, o la propria ignoranza culturale, nel software. Specialmente quando il software è progettato per prendere decisioni autonome su questioni umane.

Con la premessa che io penso il peggio possibile dell’etichetta UX, ecco, senza pretendere di essere esaustivi, due ambiti in cui uno UX designer dovrebbe essere sicuramente interpellato:

  1. La progettazione delle interfacce dei software di AI, sia dal punto di vista dell’interazione e della grafica sia dal punto di vista dell’architettura dell’informazione e della linguistica. Questo però implica che lo UX designer abbia le competenze e l’approccio di uno scienziato cognitivo. Non basta il master di sei mesi alla scuola di design: lo UX designer che si occupa di intelligenza artificiale deve avere serie competenze psicologiche, filosofiche e tecnologiche.
  2. La user research e lo human-centered design applicati al tema dell’analisi predittiva. Il ricercatore UX può avere un ruolo fondamentale nel dominio dei big data, introducendo le persone nell’equazione attraverso la ricerca etnografica sul campo e la misurazione degli atteggiamenti. Anche in questo caso, se mancano competenze psicologiche e statistiche è un problema.

La mia opinione è che la UX, paradossalmente proprio grazie alla sua natura sfumata come disciplina e alla centralità dell’utente (almeno a parole), possa aiutare a colmare i deficit culturali nella progettazione di sistemi intelligenti. Si tratta di lavorare insieme ed essere un po’ meno snob.

Questo a patto che la fantasia professionale che induce ragazzini a credersi progettisti di esperienze solo perché hanno imparato ad appendere qualche post-it, sia sostituita dall’umiltà e dall’auto-formazione continua. Non esiste alcun corso universitario o master che ti consenta di essere ancora sul mercato fra dieci anni, se non cominci a occuparti da solo di tecnologia e complessità.

Note

  1. Russell, Stuart; Norvig, Peter. Artificial Intelligence: A Modern Approach, Global Edition. Pearson – Pagine da 5 a 7.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.