Algorithmic design and Big Data analysis

Progettazione algoritmica e analisi dei dati.

L’algoritmo, un meccanismo eterointrodotto, che pone la macchina in grado di mettere in correlazione una serie infinita di informazioni ad una velocità formidabile e attraverso un procedimento di machine learning (o deep learning) financo di imparare dai propri errori, è il protagonista del cambiamento epocale in atto. Tale processo consente alla macchina dotata di Intelligenza Artificiale di migliorare costantemente la propria performance, per restituire in brevissimo tempo il risultato desiderato, che può dirsi “simile” a quello che avrebbe realizzato l’uomo. Abbiamo più volte affermato che alla macchina manca la capacità tutta umana di avere la coscienza, intuizione, equità, intuito. Manca cioè alla macchina la possibilità di discernere e di distinguere intuitivamente la soluzione migliore in certi casi, a meno che tutto non sia stato minuziosamente previsto e tutti i dati possibili non siano stati inseriti come riconoscibili per quegli eventi. Amigdala e ippocampo sono sconosciuti alla macchina. Ecco il perché dei tanti timori esistenti ad oggi in merito all’affidamento alle macchine di scelte strategiche o ad alto tasso di discrezionalità.

Al fine di poter sostenere ora e nel futuro l’efficienza, l’efficacia, ma direi soprattutto la legittimità di una scelta algoritmica è necessario che l’algoritmo sia strutturato nel rispetto di una serie di requisiti. Lo ha detto il Consiglio di Stato nella famosa decisione dell’8 aprile 2019 della sesta sezione, n.2270 (cfr mio commento Evoluzione tecnologica e trasparenza nei procedimenti algoritmici in diritto di Internet, n. 2/2019), quando, nell’evidenziare la grande validità dell’ausilio della IA nelle decisioni della PA, ha contestualmente sottolineato l’importanza che l’algoritmo sia accessibile; il Consiglio di Stato aveva accolto l’istanza di accesso al codice sorgente dell’algoritmo. L’unico “luogo” che contiene il procedimento effettivo di valutazione oggettiva e soggettiva posta alla base della decisione amministrativa. Infatti, non è possibile esprimere alcuna valutazione giurisdizionale se non è dato comprendere tale procedimento. Posto che l’algoritmo in questione viene commissionato da un essere umano o da un Ente o da una Società, è evidente che questo deve essere ispezionabile in qualsiasi momento ciò si rende necessario per verificare se quell’algoritmo aveva inseriti i giusti parametri per produrre un risultato legittimo o comunque rispondente al dettato normativo della materia che di volta in volta si trova a trattare. E’ necessaria dice il CDS, oltre all’accessibilità, la  trasparenza. Sebbene infatti una intera procedura amministrativa sia demandata ad un sistema “informatizzato e ciò sia corretto e persino auspicabile nell’ottica di una maggiore efficienza ed economicità dell’azione amministrativa”, ciò non esime la PA dalla necessità che la formula tecnica sia di fatto accessibile ai fini del sindacato di legittimità.  Per le operazioni e decisioni ripetitive e quasi prive di discrezionalità, l’ausilio dell’IA deve servire, in un’ottica di semplificazione, ad evitare interferenze dovute a negligenza, incompetenza (o peggio, dolo) del funzionario umano, garantendo al contempo la correttezza e la piena imparzialità del provvedimento automatizzato; in questo modo, dicono sempre i giudici amministrativi, si potrebbero persino evitare a certi livelli fenomeni di corruzione. Esso però deve contenere ed osservare tutti i principi fondamentali dell’attività amministrativa. Tali principi devono essere inseriti nella formula algoritmica, in guisa da generare sempre provvedimenti legittimi. Per questo l’algoritmo deve essere sempre “conoscibile”, sia pure in sede di scrutinio da parte del giudice.  Eventuali esigenze di riservatezza del designer dell’algoritmo a fini di protezione del copyright dovranno necessariamente essere considerate recessive per poter dimostrare il corretto agere della PA. Privacy e tecnologia blockchain potrebbero fare il resto per la composizione dei contrapposti interessi, ma non è questa la sede per approfondire questi aspetti. Ne parleremo più in là, sempre su questa rubrica.

Se fin qui risulta chiaro come l’algoritmo e l’Intelligenza Artificiale debbano essere indotti a produrre un determinato risultato secondo una formula predeterminata dall’uomo che preveda regole e passaggi obbligati, sia pure perfettibili con l’autoapprendimento, è altrettanto chiaro una enorme importanza nel processo evolutivo del programma sia l’acquisizione e lo sviluppo, la messa in correlazione di enormi quantità di dati; i cosiddetti big data.  

Nel desiderio di parlare del fenomeno tecnologico, ossia quello di risvegliare le coscienze di ognuno di noi e rimettere l’essere umano al centro, non si può non operare dei fondamentali distinguo, proprio sul bene della vita considerato oggi importante e fondamentale.

I Dati. Essi sono di fondamentale importanza perché attraverso la comparazione e la messa in correlazione continua degli stessi l’algoritmo impara nel corso dell’ormai noto procedimento di machine learning e restituisce risultati sempre più affinati e precisi. Questo accade nel fenomeno della profilazione di soggetti in tanti settori; accade in agricoltura, con droni che prendono informazioni dai satelliti e dalle cose connesse (IOT) appositamente disseminate sul territorio, o con le api drone di Wallmart che impollinano dove necessario e quando richiesto, così sostituendosi alle api che stanno morendo a causa degli anticrittogamici e in tanti altri settori in cui essenziali sono i dati per poter avere un risultato. I dati sono dunque un bene della vita; tanto che occorrerà fare delle riflessioni in merito all privacy ed alla recente normativa GDPR (si vedano a questo proposito gli articoli a cura del Dott. Renato Carafa sull’argomento) Regolamento UE 2016/679, che il mondo ci invidia, per verificare quanto non sia alle volte più utile metterli a disposizione invece che conservarli gelosamente in nome di una privacy che perde di valore se comparata alla enorme utilità di mettere a disposizione quel dato. Per esigenza di brevità torneremo su questo argomento in altra sede. Ci basti qui sottolineare come la citata GDPR, la normativa europea sulla privacy da noi recepita con una legge (Decreto Legislativo 10 agosto 2018, n. 101), prevede il diritto all’ “Anonimizzazione”  e alla “Pseudonimizzazione” dei dati e, sostanzialmente prevede una privacy by design.

Una domanda a questo punto deve sorgere spontanea: tutti i dati esistenti nell’etere possono essere processati allo stesso modo? Non occorre forse vagliare i dati disponibili e verificare le fonti da cui provengono? Se ad esempio l’algoritmo si basa su dati provenienti da fake news, il procedimento potrà essere corretto, ma il risultato irrimediabilmente falsato! Forse sarà il caso di verificare alla fonte i dati, o programmare l’algoritmo con un passaggio in più: quello della verifica della veridicità o meno del dato e del controllo della fonte. Ciò pone una serie di interrogativi di non facile soluzione. La tecnologia blockchain potrà forse dare qualche risposta, ma ancora sarà l’uomo a dover distinguere fra i risultati ottenuti a seconda di dove la macchina ha attinto. Ricordiamo che la macchina non è intelligente e che ad esempio riesce a distinguere un cane dal lupo perché nella maggior parte delle immagini che le si sono proposte il lupo aveva sullo sfondo la neve!

Un esempio, tra i tanti possibili potrà essere di aiuto. Tutti noi avvertiamo come possa essere utile ed importante che i dati medici vengano condivisi, comparati, e trattati per raggiungere risultati ieri insperati, grazie alla capacità di calcolo dei computer, che da pochi anni sono in grado di processare 100 milioni di miliardi di operazioni al secondo. Ma proviamo a pensare ad un algoritmo che esamini i risultati di un fenomeno sierologico o medico e prenda come dati di riferimento quelli provenienti da una regione del mondo in cui le risposte naturali siano completamente diverse da quelle in cui si trovano le persone che devono essere sottoposte al trattamento; tutto potrebbe essere drammaticamente diverso.

Ecco perché, ancora una volta, non ci stancheremo mai di sottolinearlo, è fondamentale l’approccio antropocentrico, in cui sia sempre l’uomo a governare i processi e a controllare i risultati, gli algoritmi e tutto ciò che è parte del nuovo processo “infosferico”.

Per questo è necessario che si programmi una nuova formazione a tutti i livelli che tenga conto dell’attuale stato dell’arte e nel contempo, de jure condendo, sia atta a formare le nuove leve che erediteranno quest’epoca di cambiamento, affinchè possano dirigere verso acque più sicure il pianeta.

Prof. Avv. Stefano Crisci