Intelligenza? Sì, ma artificiale

Periodicamente, dalla fine della Seconda guerra mondiale, uomini che hanno partecipato o partecipano tuttora a varie vicende tecnologiche, esibiscono sentimenti e previsioni pessimistici sul destino dell’umanità. Negli ultimi anni a soffrire di quella che potremmo chiamare la sindrome di Oppenheimer, sono stati numerosi personaggi come Bill Joy e, più recentemente, Geoffrey Hinton, Elon Musk e Sundar Pichai nei riguardi dell’Intelligenza artificiale (Ia). Se si prescinde dalla crisi di Robert Oppenheimer, che riguardava la bomba atomica e dunque un dispositivo la cui diffusione era ed è certamente preoccupante, sorge il dubbio che gli ammonimenti riguardanti l’Ia, che indicano sempre un momento scrupolosamente piuttosto lontano per l’avverarsi delle profezie più nere, nascondano in realtà il desiderio dei personaggi in questione di attribuire alle proprie invenzioni una portata molto più ampia di quanto non sia in realtà.

Come alcuni amici sanno, per oltre vent’anni mi sono occupato delle dinamiche generate dallo sviluppo dell’informatica e, poi, dell’Intelligenza artificiale conducendo sondaggi sui ricercatori di Ia in varie occasioni e in numerosi Paesi, come gli Usa, la Gran Bretagna e il Giappone. Questa lunga esperienza mi ha infine convinto che, più che l’intelligenza, fosse interessante e opportuno studiare il tema dell’artificiale in quanto tale, considerando l’Ia un caso particolare dell’antico sforzo umano di riprodurre esemplari naturali per mezzo della tecnologia disponibile. Naturalmente non è questa la sede per descrivere la ricerca, teorica ed empirica, cui mi sto riferendo e pubblicata in numerose forme fra cui, mi si perdoni l’auto-citazione, Artificiale: la riproduzione della natura e le sue leggi, Laterza, 2000 e The Reality of the Artificial. Nature, Technology and Naturoids, Springer Heidelberg, Berlin, 2012.

Vorrei solo segnalare che, nonostante Philip Ball, sulla rivista Nature, l’abbia caldamente apprezzata considerandola un’originale teoria filosofica, le sue conclusioni sono sostenute dallo studio di numerosi casi di ordine empirico, del presente e del passato, nell’ambito della ingegneria medica, della robotica, dell’architettura e di vari altri settori fra cui, appunto, l’Ia. Grazie a questi è possibile stabilire che qualsiasi dispositivo artificiale, per una serie di ragioni metodologiche, non solo non può mai riprodurre fedelmente l’esemplare naturale dal quale trae origine ma, paradossalmente, quanto più viene potenziato tanto più si allontana dalla natura e come tale va dunque accettato se i suoi servizi vengono percepiti come utili e, magari, strategici. Ora siamo alle prese con il Generative pre-trained transformer (Gpt) su cui si sentono e leggono i più stravaganti commenti soprattutto dopo le impensierite affermazioni di Hinton. In realtà, come qualsiasi altro software di Ia, anche ChatGpt esibisce, assieme a un quanto mai potente impiego delle “reti neurali” – delle quali Hinton è stato un geniale interprete – la consueta finalizzazione che consiste nel produrre, attraverso il trattamento d’informazione, il riconoscimento di forme, in questo caso linguistiche, e non certo nella generazione di conoscenza, intesa come il processo che genera quelle forme, cioè il pensiero.

Comunque, per valutare quanto sia concreta, e inevitabile, la tendenza dell’artificiale ad allontanarsi dalla realtà che vuole riprodurre vediamo la divertente esperienza da me fatta avendo chiesto a ChatGpt di parlarmi di me stesso. Dopo aver digitato “Massimo Negrotti Università di Urbino” ho ottenuto un breve testo di cui citerò alcuni brani. Secondo ChatGpt, Negrotti è “professore di computer science e ingegneria” (non vero, perché la mia cattedra era, e non è più dato che sono in pensione, di Metodologia delle scienze umane) e lavora presso l’Università di Urbino “dal 2005” (non vero, perché, dopo aver insegnato a Parma e a Genova, mi sono trasferito a Urbino nel 1987). La mia attività di ricerca sarebbe nell’ambito delle “computer networks e software engineering” (non vero, vedi sopra). Scopro poi di essere stato consulente di “Telecom Italia e European Space Agency” (assolutamente non vero).

La sintesi finale, d’altra parte, mi riempirebbe d’orgoglio se il testo precedente si fosse rivelato attendibile, poiché ChatGpt afferma che sarei un “well-respected academic with a strong track record of contributions to the field” dove però il field è nuovamente indicato nella computer science e nell’engineering. Non soddisfatto, ho insistito chiedendo a ChatGpt di parlarmi semplicemente di “Massimo Negrotti” e così è emerso che avrei conseguito un dottorato di ricerca in Informatica presso l’Università di Bologna e svolto ricerca nelle Università Cornell nonché presso l’École Normale Supérieure di Lione. Negli anni ho tenuto varie conferenze e seminari in università americane ma la Cornell e l’École mi mancavano proprio. Mi sono infine congratulato con me stesso perché apprendo di aver vinto il premio Joaquim Gomes Ferreira Alves proprio in tema di Ia. Tutte quante informazioni non vere che probabilmente derivano dalla convergenza dei dati di più persone che il procedimento, chiamato deep learning, non è riuscito a discriminare.

Si tratta di errori, va sottolineato, la cui soluzione dipenderà da interventi strettamente logici, statistici e informatici e non certo da conoscenze più approfondite sul modo di funzionare del nostro cervello. E ciò comporterà, come ho anticipato, un ulteriore divaricamento intrinseco fra l’artificiale e il naturale nonostante il primo possa produrre cose sempre più compatibili con il secondo attraverso strategie che il biologo Robert Rosen ha correttamente definito alternative realizations, dunque diverse e, aggiungo, sempre più diverse fra loro. A questo punto non si può non essere d’accordo, almeno per certi versi, con le paure di Hinton e Musk, ma non per la più o meno lontana supremazia dell’Ia sull’uomo bensì per la panmixia culturale che già oggi sta introducendo. È insomma evidente che l’adattamento dell’uomo anche a questa versione dell’artificiale richiederà molta pazienza. Sperando che ne valga la pena.

Aggiornato il 15 maggio 2023 alle ore 10:04