Automi emozionali, terza parte

Il primo e il secondo articolo di questa serie hanno, spero, chiarito, quanto sia complesso progettare un sistema artificiale se l’oggetto del progetto è sfuggente come un’emozione, ma,  quando parliamo di intelligenza,  le cose si complicano ulteriormente.

Cos’è l’intelligenza? Dovrebbe essere la prima domanda da porsi.

Le definizioni sono numerose e, come nel caso delle emozioni, riflettono sia l’epoca in cui sono state proposte sia la formazione e gli assunti teorici di chi le ha proposte. Nel libro Intelligence Psychology, Christopher Robertson sintetizza definizioni, teorie, sistemi di misurazione e tipologie di intelligenza.

Le definizioni proposte da gruppi o organizzazioni sono diciotto, mentre quelle proposte da psicologi addirittura trentacinque. Ovviamente molte si assomigliano, ma il numero resta impressionante. Successivamente Robertson suddivide le teorie sull’intelligenza in: psicometriche, cognitive, cognitive-contestuali, biologiche ecc. senza contare il discorso sullo sviluppo delle abilità cognitive (vedi Piaget e teorie successive) e quello, molto controverso, relativo alla misurazione dell’intelligenza, il famigerato quoziente.

Se pensiamo di costruire automi intelligenti, quindi, quale tipo di intelligenza dovrebbero possedere? Un’intelligenza ambientale, musicale, logico/matematica, interpersonale, cinestesica, linguistica, introspettiva, spaziale, esistenziale? L’impressione è che il concetto di intelligenza logico/matematica prevalga nell’immaginario collettivo rispetto agli automi. Ma se l’automa che vogliamo realizzare deve agire nel mondo ed essere emozionale, la logica è necessaria ma non può essere sufficiente.

Indipendentemente dal tipo, o dai tipi, di intelligenza che desideriamo implementare nell’automa, come dovrebbero svilupparsi le sue abilità cognitive? Come nell’uomo, gradualmente, grazie allo sviluppo del sistema cognitivo e attraverso l’apprendimento, oppure, già presenti nel software di base? Quest’ultima possibilità implica un presupposto pericoloso: che il progettista sappia esattamente come funziona la mente umana per poterne derivare una copia.

Consideriamo, invece, la definizione di intelligenza artificiale che danno Russel e Norvig nel loro libro Artificial Intelligence: A Modern Approach:

The study and design of intelligent agents, where an intelligent agent is a system that perceives its environment and takes actions that maximize its chances of success.

Un agente intelligente è, secondo gli autori, un sistema che percepisce il suo ambiente ed esegue azioni che massimizzano le sue possibilità di successo.

Come esercizio proviamo a indovinare almeno due assunti presenti nella frase precedente: il primo è che l’agente intelligente abita e percepisce un mondo reale costituito di fatti oggettivi, diversi da lui, nel quale svolge le sue azioni (nel primo articolo indicavo questa come una delle verità a priori che tutti diamo per scontate), il secondo è un evidente approccio biologico/evoluzionistico: ciò che l’agente fa, in ultima analisi, è produrre una strategia evoluzionisticamente stabile in un ambiente ostile.

Al di là degli assunti teorici (che fanno di nuovo capolino a complicarci la vita), un aspetto sicuramente cruciale nella definizione di Russel e Norvig è la relazione con l’ambiente che implica, soprattutto se è fisico, la necessità di sensori e attuatori per consentire all’agente di percepire e agire. Inoltre, questa scuola di pensiero introduce l’importante concetto di agente razionale e di intelligenza computazionale:

A rational agent is one that acts so as to achieve the best outcome, or when there is uncertainty, the best expected outcome.

L’idea di intelligenza artificiale ha subito un’evoluzione notevole negli ultimi sessant’anni. Dalla scienza cognitiva hard degli anni ‘60, in cui la macchina artificiale letteralmente pensa e agisce come un essere umano (per esempio perché supera il test di Turing), a quella più soft secondo cui le facoltà mentali umane possono essere simulate e studiate al calcolatore, alla logica formale usata come linguaggio per la codifica delle presunte “leggi del pensiero”, alle reti neurali ecc. È essenziale però comprendere che oggi scienza cognitiva e intelligenza artificiale sono discipline distinte.

Questa storia lunga cinquant’anni in cui la crescita esponenziale della capacità computazionale dei calcolatori è stata associata entusiasticamente alla possibilità di simulare, o superare, la mente umana è, fortunatamente, terminata (o è al suo crepuscolo). È a causa di questa storia, secondo me, che il problema culturale dell’intelligenza artificiale ruota attorno all’uso improprio del termine intelligenza, una parola che può generare fraintendimenti, o anche senso del ridicolo, se associata ad agenti poco più complessi di un termostato, così come il termine artificiale se associato a concetti sfuggenti come emozione e coscienza.

Le basi culturali dell’intelligenza artificiale, così come si configura oggi questo campo, sono matematica, economia, neuroscienze, psicologia, filosofia, ingegneria informatica, controllo automatico, cibernetica e linguistica. Una costellazione di competenze e visioni del mondo notevolmente differenti.

Le applicazioni spaziano dalla comprensione del linguaggio naturale al riconoscimento della scrittura, la traduzione automatica, la robotica, i filtri collaborativi (per esempio i suggerimenti di Amazon), i motori di ricerca, il riconoscimento facciale, l’analisi delle reti sociali, la sentiment analysis, le autonomous car e così via… Sono anche in corso esperimenti per sviluppare modelli di intelligenza artificiale fluida, cioè, in grado di risolvere problemi in situazioni nuove, senza informazioni preesistenti.

È però giunto il momento di accettare il fatto che nessuno è così ingenuo da assumere un assistente di nome Igor, costruire un presunto cervello artificiale e dargli corrente all’urlo: “Si può fare!”.

Gli agenti intelligenti – oggi – sono protesi digitali e/o fisiche dell’uomo che migliorano l’esperienza di un servizio o di un bene e, potenzialmente, la qualità della vita. Non c’è coscienza o emozione in questi artefatti.

Quale sarebbe, poi, il vantaggio di costruire davvero Marvin, l’androide paranoico?

Marvin, The Paranoid Android

Bibliografia della terza parte:

  1. Russel, Norvig, Artificial Intelligence: A Modern Approach, Pearson.
  2. Christopher Robertson, Intelligence Psychology , Amazon.

Insieme a Fabrizio Gramuglio, abbiamo creato un gruppo LinkedIn pensato per fungere da collettore di idee sulla Artificial Empathy, vi invito a partecipare alla discussione.

Crediti: la copertina dell’articolo è Brain III, di  LotusOnlineDe.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *