Le neuroscienze e l’intelligenza artificiale

Attualmente l’intelligenza artificiale è un elemento abituale nelle applicazioni e nei servizi dell’economia digitale (da Siri - assistente vocale - al riconoscimento facciale in Facebook), nei veicoli a guida autonoma, nelle case intelligenti e nei robot: tutto ciò che è in grado cioè di connettere dati ed essere utilizzato nella vita quotidiana.

Gli scienziati non dispongono ancora del modello completo delle attività cognitive umane - processi consci e schemi neurali ad essi sottesi - ma, nonostante ciò, sono fiduciosi di poter ottenere una intelligenza artificiale “umana” entro il nostro secolo. Ciò grazie allo studio della cognizione, alle neuroscienze e alle neuroscienze computazionali, ed al continuo processo tecnico nell’informatica. Per Alan Touring, lo affermava già nel 1950, non c’è nessuna differenza significativa tra un essere intelligente e una sua perfetta imitazione. Ciò non è contestabile se non altro perché ad oggi non è possibile entrare perfettamente nella testa di qualcuno e sapere se è cosciente ed agisce secondo il suo libero arbitrio.

Dopo Touring, un gruppo di esperti, nel 1956, ha individuato le due linee che dominano tuttora la ricerca: la prima è un’impostazione simbolica sostenuta da Marvin Minsky, Herbert Simon e Allen Newell che postula come, per riprodurre l’attività cognitiva del cervello, si deve partire da modelli astratti espressi attraverso simboli, in quanto la mente è simile a una macchina il cui comportamento può essere studiato e replicato in un computer; la seconda è un’impostazione connessionista sostenuta da Frank Rosenblatt che considera l’intelligenza come una proprietà funzionale del cervello biologico e, per simularla, cerca di riprodurre la sua struttura ispirandosi al funzionamento del sistema nervoso. Tale impostazione connessionista ha sviluppato concetti cruciali come quello di rete neurale artificiale o Rna, ovvero i primi programmi capaci di imparare in modo autonomo. Gli Rna sono già oggi in grado di riconoscere un’immagine meglio di come lo faccia un essere umano. Ragionamento e acquisizione della conoscenza, comunicazione e interazione con l’ambiente, apprendimento, riconoscimento degli oggetti, linguaggio e comunicazione, apprendimento sono le aree di interesse che, preferibilmente partendo da una mente infantile e la sua educazione (così ha profetizzato Touring), stanno permettendo la costruzione dell’intelligenza artificiale umana. Per ora disponiamo di macchine capaci di imparare, non ancora di pensare perché non sappiamo noi stessi come “pensa” e come faccia a “pensare” il nostro cervello umano. L’intelligenza artificiale, questo è certo, sta cambiando le nostre vite. Recentemente è stato chiesto, a mo’ di sondaggio, quando si sarebbe raggiunta l’intelligenza artificiale e la risposta è stata che un bambino che oggi ha dieci anni la vedrà.

Se l’evoluzione è stata capace di produrre l’intelligenza, perché l’ingegneria umana non dovrebbe essere in grado di fare altrettanto e più velocemente? Essendo l’intelligenza artificiale una disciplina giovane - ha poco più di sessanta anni di storia - non c’è ancora una teoria unica, e si contraddistingue più per le sue fluttuazioni nel suo campo. D’altra parte neanche l’intelligenza, che è il vero obiettivo della disciplina, è definita adeguatamente. La maggior parte degli scienziati concorda su proprietà minime che ogni sistema intelligente deve avere, ovvero: 1) la capacità di prendere decisioni e pianificare a medio/lungo termine; 2) la capacità di interagire con il mondo fisico percependo, capendo e comportandosi di conseguenza; 3) sapersi orientare e muovere nello spazio, manipolare gli oggetti in base agli scopi e mettersi in relazione con il mondo degli umani (capire il linguaggio naturale e relazionarsi a livello emotivo); 4) la capacità di adattarsi all’ambiente e accumulare nuove conoscenze con l’obiettivo finale di risolvere nuovi problemi. Ma l’intelligenza è separabile o non è separabile dal corpo in cui abita, o quantomeno dall’esperienza di abitare un corpo? In base a questa differenza si è distinto tra l’intelligenza artificiale forte (un sistema di intelligenza artificiale che contiene una mente, cioè che ha coscienza e intenzionalità) e l’intelligenza artificiale debole (le macchine agiscono come se fossero intelligenti e avessero una mente ). Non esiste ad oggi un unico modello definito di come ragioni il cervello umano, così finora gli scienziati sono costretti a progettare sistemi che emulano il ragionamento umano in ambiti specifici.

A tal proposito si adottano varie tecniche, tra cui, quella che si pone come una grande promessa, la più versatile, delle reti neurali. Detto il più semplicemente possibile, le reti neurali sono composte da neuroni artificiali connessi tra loro. Ogni unità neurale possiede una o più connessioni di entrata e una sola di uscita. Appena percepisce un valore di entrata, il neurone lo moltiplica per un fattore numerico - peso - e, se il risultato supera una determinata soglia, propaga il valore iniziale ai neuroni degli stati successivi, in caso contrario lo inibisce. Così i neuroni artificiali sono in grado di effettuare le operazioni logiche fondamentali, mentre quando si cerca di effettuare operazioni logiche più complesse, tale emulazione del cervello con la rete neurale artificiale diventa insufficiente. Problema già rilevato da Minsky e cui si cerca di sopperire con l’aggiunta di strati addizionali di neuroni. Una rete multistrato può calcolare ogni tipo di operazione ma ha importanti limitazioni quando deve imparare. L’ultima frontiera del suddetto apprendimento è oggi il deep learning - apprendimento profondo - che è un tipo di algoritmo di apprendimento progettato per sfruttare al massimo le capacità di processare informazioni in parallelo delle reti neurali. La tecnologia del deep learning ha avuto un boom straordinario grazie all’evoluzione della capacità di calcolo dei computer. Gli algoritmi di deep learning sono alla base dei grandi progressi compiuti nel riconoscimento vocale e nella elaborazione del linguaggio naturale. 

Oggi i sistemi di deep learning analizzano i nostri comportamenti come consumatori e generano informazioni molto accurate. Si prevede che questa tecnica possa ampliarsi ad altri ambiti del nostro comportamento, come quello delle relazioni affettive. Un giorno lasceremo probabilmente che un programma prenda decisioni vitali e personali al posto nostro perché ci fideremo della sua profonda conoscenza dei nostri gusti e delle nostre inquietudini, specialmente di quelle di cui non siamo consapevoli. “Se un algoritmo ti controlla in ogni momento, finirà per conoscerti meglio di te stesso, arrivando a suggerire con chi vederti, chi sposare o chi votare” ha scritto il saggista Yuval Noah Harari. “Alla fine sarà una questione empirica; se il sistema funziona bene e ti dà buoni consigli, lo ascolterai sempre di più”. In ogni caso, sarà sempre, tuttavia, una nostra scelta volontaria.