Salta al contenuto
Close
Hit enter to search or ESC to close

La stupidità naturale dell’intelligenza artificiale

Nei tre articoli che ho scritto in passato sull’empatia artificiale 1 sostenevo che, quando si usa l’aggettivo artificiale accanto a caratteristiche umane si deve fare molta attenzione alla propria teoria di riferimento perché questa imporrà degli assunti, forse completamente errati, sui quali baseremo più o meno consapevolmente il nostro progetto.

Non è solo una questione terminologica: se tu, per esempio, sei convinto che le emozioni siano incorporate nel cervello fin dalla nascita e siano classificabili e universalmente riconoscibili attraverso l’analisi di movimenti muscolari del viso, posture del corpo ecc. progetterai un certo tipo di automa emozionale. Se invece non è questa la tua teoria di riferimento, progetterai un automa completamente differente, oppure, terza opzione, capirai che qualsiasi cosa tu stia progettando, non ha nulla a che fare con le emozioni.

Qualche giorno fa mi sono imbattuto in questo interessante talk di Lisa Barrett che propone una spiegazione controintuitiva sulla natura delle emozioni, per lei le emozioni non sono espresse e riconosciute in maniera universale e non sono reazioni incontrollabili incorporate nel cervello:

I have studied emotions as a scientist for the past 25 years, and in my lab, we have probed human faces by measuring electrical signals that cause your facial muscles to contract to make facial expressions. We have scrutinized the human body in emotion. We have analyzed hundreds of physiology studies involving thousands of test subjects. We’ve scanned hundreds of brains, and examined every brain imaging study on emotion that has been published in the past 20 years. And the results of all of this research are overwhelmingly consistent. It may feel to you like your emotions are hardwired and they just trigger and happen to you, but they don’t. You might believe that your brain is prewired with emotion circuits, that you’re born with emotion circuits, but you’re not. In fact, none of us in this room have emotion circuits in our brain. In fact, no brain on this planet contains emotion circuits.

So what are emotions, really? Well, strap on your seat belt, because … emotions are guesses. They are guesses that your brain constructs in the moment where billions of brain cells are working together, and you have more control over those guesses than you might imagine that you do.

(…)

Predictions are primal. They help us to make sense of the world in a quick and efficient way. So your brain does not react to the world. Using past experience, your brain predicts and constructs your experience of the world.

Ecco il video:

Le implicazioni di questa prospettiva sono molto interessanti sia da un punto di vista terapeutico ed etico sia dal punto di vista dell’impossibilità di costruire sistemi artificiali di riconoscimento delle emozioni basati solo sull’osservazione del viso e del corpo umani, perché, se ci fidiamo delle conclusioni di Barrett, non c’è significato emozionale intrinseco nei movimenti del corpo: il sistema cognitivo costruisce al volo il significato delle emozioni in un dato contesto attraverso le capacità predittive del cervello e, sostiene Barrett, noi, una volta consapevoli di questo processo, possiamo imparare a costruire le nostre esperienze in maniera diversa, per esempio per ridurre la sofferenza emozionale.

Quindi che senso avrebbe investire su Emolo, il software immaginario che millanta di riconoscere le emozioni degli utenti, progetto di punta della startup hipster EmoIA appena comprata da un big a caso della Silicon Valley? La mia opinione è che, limitatamente a un sottogruppo di reazioni emotive fisiche grezze, Emolo potrebbe anche fornire dati utili (statisticamente parlando), ma i limiti degli assunti errati alla base dell’architettura del software lo renderebbero inutile, se non pericoloso, in contesti complessi. Io, per esempio, eviterei di usare Emolo per prendere decisioni che influenzano la vita di un essere umano.

Ciò che sta capitando in questi anni di hype sull’intelligenza artificiale, la singolarità ecc. – nella cornice spesso buffa dello startuppismo estremo – è che semplificazioni imbarazzanti o, peggio, concezioni errate del funzionamento della cognizione umana sono usate per antropomorfizzare, e quindi rendere commercialmente più cool, una serie di approcci e tecnologie che sono molto utili, ma di certo non intelligenti, a meno che non si usi una definizione talmente basica di intelligenza da includere anche un termostato.

Nel suo ultimo libro, Jaron Lanier liquida il discorso sull’intelligenza artificiale con queste parole:

We forget that AI is a story we computer scientists made up to help us get funding once upon a time, back when we depended on grants from government agencies. It was pragmatic theatre. But now AI has become a fiction that has overtaken its authors.

Già.

Note

  1. Se sei curioso o curiosa, leggi il primo della serie.

2 commenti su “La stupidità naturale dell’intelligenza artificiale”

  1. Bello. L’hype sulla AI è incredibile. Così come la distanza dalla realtà. Dovremmo prima comprendere che cos’è l’intelligenza….

    1. Ma sai Gianfabio io non discuto il fatto che Turing avesse ragione e che prima o poi esisteranno delle macchine non organiche zeppe di porte NAND che potranno eseguire qualsiasi computazione a livello umano e oltre (apprendimento, pensiero, creatività, e bla bla bla). Vedremo (probabilmente noi due no ;)). Discuto il tentativo di antropomorfizzare OGGI il tutto per scopi che, e qui secondo me Lanier ha ragione da vendere, sono strumentali e completamente fuorvianti. Inoltre, e qui il tema è culturale, si progettano automi chiamandoli intelligenti senza studiare epistemologia, filosofia della mente, antropologia e psicologia. Lo trovo pazzesco.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.