Come progettare un automa emozionale, seconda parte

La Prima Parte si è conclusa con l’invito a scegliere la propria teoria preferita sulla natura delle emozioni. Possiamo definire le emozioni a partire dalla neurobiologia, in termini di comportamento, dal punto di vista funzionale, quello evoluzionistico, in base al senso comune ecc.

Associare con troppa leggerezza le parole intelligenza, emozione e artificiale è tornato di moda negli ultimi anni. I pericoli di questa tendenza sono da un lato la banalizzazione della complessità e dall’altro l’antropomorfizzazione, per questo è necessario chiarire sempre quali assunti teorici sono alla base dei nostri progetti. Whatever works (basta che funzioni) non è mai una risposta intelligente a un problema di progettazione.

Per comprendere meglio la complessità dell’argomento è utile introdurre nella discussione gli stati mentali qualitativi: i qualia.

Un bicchiere di un ottimo Amarone provocherà in chi lo beve un quale gustativo e chiunque abbia sentito un sommelier descrivere un vino, sa quanto sia difficile condividere questi stati mentali. Se mostri una rosa rossa a una persona non affetta da protanopia, potrà confermare senza problemi che è rossa, ma se gli chiedi di descrivere la sua personale esperienza del rosso, le cose si complicheranno parecchio. È facile prevedere che il significato si perderà nelle analogie usate per descriverlo.

Quali garanzie abbiamo che i nostri stati mentali qualitativi siano come quelli degli altri? Potremmo rispondere che la biologia del sistema nervoso centrale è coerente a livello di specie, per cui i nostri qualia sono verosimilmente molto simili, eppure è impossibile, per un altro, sperimentare il mio personale quale visivo del rosso se non essendo me. Lo stesso vale per le emozioni: quando le descriviamo, o quando tentiamo di costruire dei modelli teorici generali su di esse, ci allontaniamo inevitabilmente dall’esperienza.

Non è solo una questione di eccessiva semplificazione, si tratta anche di perdita di significato.

Se, però, la teoria di riferimento che hai scelto per progettare gli algoritmi emozionali del tuo automa non prevede il concetto di quale, o ne svaluta la rilevanza, il problema è apparentemente risolto. D’altro canto, se la tua teoria sostiene che i qualia siano fondamentali, come formalizzare in un algoritmo un concetto che sfugge alla descrizione? Ora, probabilmente, l’importanza degli assunti teorici è più chiara.

È possibile, quindi, costruire macchine in grado di provare o riconoscere stati mentali qualitativi? Se una macchina è in grado di percepire alcuni pattern comportamentali umani associati all’espressione di un’emozione e produce, grazie a un algoritmo, una risposta, possiamo seriamente affermare che riconosca o, addirittura, provi un’emozione? Siamo certi, inoltre, che l’espressione superficiale di un’emozione (ciò che una macchina può percepire attraverso sensori) sia davvero rivelatrice di uno stato qualitativo? Gli esseri umani esprimono le emozioni anche attraverso il comportamento complesso, non solo tramite micro o macro espressioni facciali o variazioni nella pressione sanguigna, oltre al fatto che esistono persone incapaci di manifestare emozioni, ma non possiamo certo affermare che per questo non le provino.

Un’emozione, quindi, è uno stato mentale innegabilmente intimo, qualitativo e personale. Alcune emozioni possono essere tipiche di una data cultura e spesso associate a comportamenti sociali complessi. Eccone alcuni esempi:

  • Gli Ifaluk delle Isole Caroline in Micronesia, un popolo particolarmente pacifico e cooperativo, hanno un concetto emozionale chiamato fago, un misto tra compassione, amore e tristezza, che si attiva quando si confrontano con una persona in stato di bisogno e si sublima nell’atto del prendersene cura.
  • I Baining delle montagne di Papua Nuova Guinea credono che quando gli ospiti se ne vanno rilascino una sorta di pesantezza, pare allo scopo di viaggiare più leggeri, questa nebbia emozionale oppressiva dura tre giorni e provoca sentimenti di distrazione e apatia che interferiscono con le normali attività, quindi, quando gli ospiti partono, la famiglia esegue un apposito rituale per scongiurare l’awumbuk e tornare alla vita normale.
  • Gli olandesi usano il termine gezelligheid per descrivere il particolare stato emozionale di conforto e accoglienza vissuto insieme a un gruppo di persone amiche appartati in un luogo chiuso, caldo e familiare.
  • Per i Pintupi, un popolo che vive nel deserto dell’Australia occidentale, esistono ben quindici tipi differenti di paura. Il nginyiwarrarringu è l’improvviso sussulto di allarme che fa saltare in piedi e guardare intorno per capire cosa l’abbia causato.

Questa ricchezza antropologica dovrebbe far riflettere sulle categorizzazioni semplicistiche. Se è necessario individuare l’atomo fondamentale, il bit, di un’emozione per poterlo cristallizzare in un algoritmo, non ci stiamo forse perdendo qualcosa? Se, per esempio, credessimo di aver scoperto l’atomo della paura, che fine farebbero le quindici sfumature dei Pintupi? Una risposta facile potrebbe essere: “Chi se ne frega: basta che funzioni”. Ma abbiamo già chiarito all’inizio che noi siamo più intelligenti di così.

Quindi, riassumendo, se voglio progettare una macchina emozionale non posso evitare di prendere posizione nel dibattito sulla natura delle emozioni (succederà anche se non ne sono consapevole), facendolo sarò vittima di alcuni assunti filosofici (dualismo cartesiano, riduzionismo, ecc.) che potrebbero, se errati, far partire il mio progetto da un errore; successivamente, per rendere programmabile questa macchina, che deve simulare o interpretare il comportamento umano, dovrò semplificare molto e questa eccessiva semplificazione rischierà di farmi perdere di vista proprio l’oggetto stesso del mio progetto.

Termina qui la seconda parte, nella terza vi regalerò, vostro malgrado, la mia discutibilissima opinione sull’intelligenza umana e la stupidità artificiale (o viceversa).

Bibliografia della seconda parte:

  1. Tiffany Watt-Smith, The Book of Human Emotions: An Encyclopaedia of Feeling from Anger to Wanderlust, Profile Books.
  2. La voce “Qualia” dell’Internet Encyclopedia of Philosophy.
  3. L’articolo What Is It Like to Be a Bat? di Thomas Nagel (PDF).

Insieme a Fabrizio Gramuglio, abbiamo creato un gruppo LinkedIn pensato per fungere da collettore di idee sulla Artificial Empathy, vi invito a partecipare alla discussione.