lunedì 14 aprile 2025
Lo sviluppo delle nuove tecnologie, come ogni sviluppo umano, apre orizzonti inaspettati e, al tempo stesso, pone nuovi interrogativi. Il rischio più grande e immediato è quello di non rendersi conto di alcuni pericoli e produrre e consolidare meccanismi incapaci di considerare il problema metafisico-morale come essenziale per il nostro tempo, accecati dalla scintillante potenza della tecnica. Il filosofo Hans Jonas già marcava, alcuni decenni or sono, la necessità di una riflessione adeguata circa le conseguenze dell’enorme sviluppo del progresso tecnologico della nostra epoca che, a differenza delle rivoluzioni passate, mette in discussione non il mezzo e/o l’utilizzo del mezzo, ma l’uomo stesso: “Abbiamo infatti analizzato la techne soltanto nella sua applicazione all’ambito non-umano. Ma l’uomo stesso è diventato uno degli oggetti della tecnica. L’homo faber rivolge a se stesso la propria arte e si appresta a riprogettare con ingegnosità l’inventore e l’artefice di tutto il resto. Questo compimento del suo potere, che può ben preannunciare il superamento dell’uomo, questa imposizione ultima dell’arte sulla natura, lancia una sfida estrema al pensiero etico che, mai prima d’ora, s’era trovato a prendere in considerazione la scelta di alternative a quelli che erano considerati i dati definitivi della costituzione umana” *. Gli enormi passi in avanti della techne e soprattutto di una particolare tecnologia, la cosiddetta intelligenza artificiale (Ia), rende quanto mai attuale la notazione di Hans Jonas. Tuttavia, prima di procedere, ritengo importante far riferimento a un evento datato 1955.
In quell’anno, John McCarthy – giovane matematico affascinato dalla scienza informatica – propose un workshop estivo per indagare la possibilità della costruzione di “macchine pensanti”. McCarthy, così come gli altri partecipanti che firmarono il progetto, partiva da una specifica convinzione: “The study is to proceed on the basis of the conjecture that every aspect of learning or any other feature of intelligence can in principle be so precisely described that a machine can be made to simulate it”**.
È – come dicevo – un punto di estrema importanza per il discorso in essere, per i presupposti metafisici e antropologici forse non indagati dagli autori o dati per scontato, presupposti che fanno da sfondo alle loro ricerche: la congettura di cui si parla è, de facto, una presa di posizione sulla natura dell’intelligenza e, di conseguenza, sulla natura dell’essere umano. È necessario comprendere questo punto per poter affrontare con serietà la questione e comprendere il dibattito in corso, nonché comprendersi – naturalmente – in un eventuale confronto: se i miei concetti di “natura”, “cultura”, “uomo”, “persona”, “intelligenza”, “simulazione”, sono diversi da quelli del mio interlocutore, il confronto è viziato sin dall’inizio. Ogni disputa, per tale ragione, dovrebbe partire da questa chiarificazione concettuale: nel caso specifico, occorre capire cosa intendessero gli autori poc’anzi citati quando parlavano di uomo e di intelligenza, di processo e di apprendimento, cos’è naturale per l’uomo, cos’è una simulazione e così via. Oggi, come allora, occorre mettere in chiaro questi concetti e aprire così la strada alla risoluzione di numerose controversie e, di conseguenza, ad una trattazione del problema Ia più pacata: si eviterebbero numerosi estremismi fermandosi preliminarmente sulle parole e sul loro significato. Ora, proprio questo punto mi permette di entrare nell’interessante dibattito svoltosi sulle pagine de L’Opinione su “realismo gnoseologico e Ia”.
Il fermarsi sulle parole e sul loro significato, difatti, ci pone proprio all’interno della natura della conoscenza e della conseguente differenza tra la “penetrazione” dell’essere da parte dell’intelletto umano e la manipolazione dei simboli della macchina. È qui che si gioca il discorso – come giustamente sottolineato da Daniele Trabucco e Aldo Rocco Vitale. Se la natura dell’intelligenza umana – e ritorno a quanto dicevo inizialmente – si ferma alla “costruzione” di una informazione, allora il discorso è chiuso: prima o poi si daranno macchine in grado di costruire informazioni come fa l’uomo; se, al contrario, la conoscenza non è una mera informazione, ma movimento intensivo verso l’essere – tipico del cosiddetto realismo gnoseolgico – e sua compenetrazione, beh, allora il discorso cambia: in gioco è una qualità immateriale che la macchina non potrà mai raggiungere. In estrema sintesi, pensare non è manipolare.
(*) Il principio responsabilità. Un’etica per la civiltà tecnologica di H. Jonas, Einaudi, Torino 1990, pagina 24
(**) A Proposal for the Dartmouth Summer Research Project di John McCarthy e altri
di Giovanni Covino