Open data, se non sapete cos'è non siete cool 2.0. Il nuovo termine è arrivato come un sasso ad agitare le acque dello stagno digitale nostrano ancora smosse dal "Cloud". È la nuova frontiera, il nuovo orizzonte: tutti ne parlano, tutti ne vogliono sapere. Persino le pubbliche amministrazioni, che fino a ieri neanche sapevano cosa fosse una mail, che per anni hanno fatto siti vetrina e investito per la rete meno che per rifare un'aiuola, improvvisamente si scoprono a investire tempo e denaro nell'ultima scoperta telematica in nome delle consolidate tag della rete: condivisione, trasparenza, conoscenza. La domanda che sorge spontanea a questo punto di solito è perché: perché un'amministrazione che di solito si tiene stretti, anzi strettissimi i suoi dati, improvvisamente dovrebbe rivoltare la sua cultura tolemaica, che vede tutto girare intorno al Palazzo, per passare a quella più copernicana dove "tutto gira intorno al cittadino"? A questa domanda non so dare una risposta, a me interessa un altro aspetto: il "come". Perché il "come" negli open data è tutto. Siamo al livello finale (per ora), al web 3.0. Dopo l'infomazione strutturata del web 1.0 con i siti tradizionali; dopo l'atomizzazione dell'informazione condivisa del web 2.0 per tramite dei social network, siamo ora all'informazione host to host del 3.0, macchine che "parlano" aed altre macchine, programmi che si scambiano dati. Noi, veniamo dopo. E se il "come" è importante, questo è anche il punto debole degli open data. Dagli output che ho potuto analizzare sino ad oggi, non credo che questi troveranno mai un "come funzionante". Basti pensare che sono partiti corsi per data journalism, quindi per "leggere" i dati, quando le amministrazioni pubbliche, nelle varie declinazioni, non hanno ancora deciso come "scrivere", appunto, i dati. Vero che il data journalism ha negli open data una piccola parte, ma ammetterete che una certa mancanza di corrispondenza esiste.
La domanda cruciale quindi è: come scriveranno questi flussi dati i 5.000 comuni, le oltre cento province, le 20 regioni, la pletora di ministeri? Sono tutte istituzioni che hanno prodotto per decenni dati ciascuno come gli pare o, meglio, come hanno prodotto le società che hanno realizzato i software di gestione. Come farli parlare tra loro? La parola chiave in questo caso è "protocollo". il programma che riceve i flussi deve sapere "come" leggere i dati che arrivano dal programma che ha inviato il flusso. L'italiano è il protocollo con cui parliamo, il nostro xml; indispensabile ma non sufficiente. Se non ci mettiamo d'accordo che pesca per noi è sempre un frutto e non uno sport, la lettura della sola parola è insufficente. Logica vorrebbe a questo punto che qualcuno mettesse tutte le amministrazioni intorno a un tavolo a decidere che per inviare la trasmissione dei dati si usa solo il formato x(ml se possibile) e non y. Poi che se dentro il flusso c'è il dato, ad esempio, "auto blu", siamo tutti d'accordo che questo è un attributo che vuole intendere "..", mentre "auto grigia" vuole intendere "...", se il dato deve essere fornito in forma aggregata, o elementare, se traslato in entità "auto" corredato di tutti i dati relativi a ciascuna auto, relazionato con l'entità "tipologia auto" e anche con l'ufficio che usa quell'auto, e via, appunto, dichiarando. Logica vorrebbe che poi tutti, ma proprio tutti, in forma automatica e costante, producano questa montagna di dati tutti coerenti e tutti nello stesso modo. Altrimenti il povero data journalist impazzirà nel cercare tutte le auto blu oltre i 30.000 euro acquistate da assessorati di giunte di un certo luogo nel periodo dato. Senza scordare che per leggere i dati occorre competenza non inferiore a quella che serve per scriverli. Tutto questo in un paese dove, ad ascoltare Tullio De Mauro, il 71% delle persone non ha le competenze minime indispensabili per orientarsi nelle informazioni che la società contemporanea mette a disposizione. Certo, sarebbe bello che l'amministrazione pubblica, tutta insieme, in un sol colpo, trovasse il modo di fornire dati certi, dettagliati, correttamente e soprattutto univocamente rappresentati, dichiarati, aggregati, relazionati. E che questi dati venissero poi alimentati con costanza e certezza da ogni ufficio competente nelle più remote province dell'impero. Per poi essere letti e interpretati correttamente da giornalisti e/o studiosi competenti, in modo che un cittadino su tre possa essere più o meno discretamente informato. Sarebbe bello ma, scusate l'amarezza, non ci credo. Anche perché gli open data sinora esaminati si sono rivelati mancanti del dato più importante, ma questa è un'altra storia.
Aggiornato il 01 aprile 2017 alle ore 15:34