L’intricato e spesso sconosciuto mondo degli Open Data e la loro reale possibilità di contrastare la corruzione e aiutare la trasparenza della pubblica amministrazione è stato al centro del panel discussion, tenutosi all’Hotel Sangallo, che ha visto coinvolti esperti del mondo delle associazioni, del giornalismo e dei dipartimenti pubblici.
La discussione nasce da un progetto europeo, presentato da Lorenzo Bodrero, mediatore anche della conferenza, che coinvolge quattro paesi europei e diversi atenei e associazioni, tra cui l’università di Oxford, un centro universitario di Nottingham e Transparency International Italia. L’obbiettivo del progetto, ancora in fase di costruzione e che approderà tra un anno in Commissione europea, esplora le potenzialità di “aprire” i dati di imprese, aziende ed enti pubblici e privati per sfavorire comportamenti corruttivi. Alla discussione hanno preso tre diverse categorie di professionisti, proprio per sottolineare tre diversi modi di approcciarsi al problema: Davide Del Monte per Transparency Internationla Italia, Cecilia Anesi, co-fondatrice di IRPI, Andrea Melapace per Open Government Data, Leonardo Ferrante, referente scientifico del Gruppo Abele; Fabrizio Di Mascio per l’Autorità garante del per la trasparenza dei dati, Stefano Pizzicannella, del Dipartimento di Funzione Pubblica, Giuliano Palagi, Direttore generale dei servizi della provincia di Pisa e il ricercatore dell’università di Pisa Benedetto Ponti; Guido Romeo per il magazine Wired e fondatore della campagna “Diritto di sapere” e Lorenzo Segato, direttore CRSSC; grandi assenti, com’è stato sottolineato dal mediatore, professionisti del mondo della politica e delle imprese.
Innanzitutto, si è cercato di capire se realmente gli Open Data possono servire a contrastare la corruzione; come confermano tutti gli esperti, gli Open Data aiutano alla lotta contro la corruzione ma a tre particolari condizioni, che si sono poi rivelati i tre principali problemi che impediscono lo sviluppo e la conoscenza di questa prassi. Molti servizi di Open Data esistono ma ciò che li rende difficili da avvicinare al cittadino è la qualità; molti sistemi di Open Data, infatti, sono «difficili da avvicinare» perché redatti attraverso linguaggi e codici, anche matematici, ostici al cittadino medio. Secondo gli esperti, una riduzione tabellare degli elementi che spiega il procedimento, dal dato grezzo al risultato finale, risulterebbe più facile da fruire. In questo modo, il cittadino potrebbe trasformarsi in un “vigilante indiretto” sui servizi e sulle spese, coadiuvato dagli organi diretti; una maggiore funzionalità e chiarezza dei dati potrebbe essere attivata anche attraverso un cambiamento della fruibilità degli Open Data, attraverso, ad esempio, la creazione di specifiche applicazioni per cellulari e computer. Una metodologia del genere quindi permette di evidenziare eventuali anomalie o scarti rispetto alla media e rintracciare più facilmente casi di corruzione. Molto spesso, però, questi dati sono elaborati da funzionari non specializzati che si limitano a digitalizzare, nei migliore dei casi, faldoni di archivio. Un secondo problema, quindi, è la formazione di “nicchie specializzate”, quei “middle wear”, tra i cittadini e la Pubblica Amministrazione in grado di costruire sistemi di dati comprensibili al cittadino. I dati, però, dovrebbero essere raccolti con sistematicità e molti esperti hanno infatti sottolineato, ad esempio, la mancanza di dati elettorali aperti al pubblico da un certo periodo, risalente agli anni ’80, e portando l’attenzione su una possibile costruzione di “fabbriche di dati”, su stile statunitense, che possano anche concorrere con la pubblica amministrazione. Quello che manca però, e che è alla base anche di altri problemi, è l’interesse dei cittadini a conoscere questi sistemi di dati, in altre parole occorre «dare un senso all’elaborazione». Questo punto può poi essere causa e può causare, secondo un intricato ragionamento, i problemi di qualità e comprensione dei dati. Sicuramente tra gli Open Data più importanti da rintracciare si annoverano le transizioni finanziare, i bilanci, l’assegnazione dei fondi europei in ambito agricolo, le concentrazioni di potere, le carte giudiziarie.
Accanto a questi tre grandi problemi se ne affiancano altri che riguardano questioni più tecniche, come ad esempio la sinergia tra i diversi ambiti della Pubblica Amministrazione, la tracciabilità dei dati e l’affidabilità della fonte. L’ultimo elemento di dibattito è stato quello che riguarda i costi derivanti dalla sistemazione dei dati. I costi della PA sarebbero indubbiamente elevati ma non supererebbero i costi derivati dalla mancata pubblicazione dei dati; è necessario, infatti, passare da una teoria del costo, che vede la trasparenza dei dati solo come un adempimento alla legge, ad una teoria dell’investimento, che guarda ai dati non come un fine ma come il mezzo tramite cui raggiungere degli obiettivi più importanti, quali il miglioramento dei servizi per il cittadino.
Tutti hanno comunque riposto fiducia nell’elaborazione in un Freedom Information Act che posso rendere liberi i dati e porre un importante mattone contro la lotta alla corruzione.
Marilde Iannotta