Intelligenza Artificiale e il ruolo dell’etica e del diritto

Il think tank del Parlamento Europeo è continuamente al lavoro per delineare un quadro normativo adeguato anche in tema di responsabilità civile; Il Ministero dello Sviluppo Italiano ha emanato proposte per una Strategia Italiana per l’Intelligenza Artificiale.

“L’innovazione non chiede permesso” intitola Luca Tomassini, Cavaliere del Lavoro e AD di Vetrya spa, il suo ultimo libro. Non si può sfuggire al futuro. Questo ormai è chiaro a tutti. Tristemente complice il COVID-19, ognuno di noi oggi è consapevole di ciò. Nei nostri precedenti appuntamenti abbiamo affrontato il tema dell’IA e abbiamo capito come la diffusione del fenomeno sia inarrestabile.

La produzione massiccia di dati da parte di ogni individuo sulla terra, ha fatto passare la capacità di memorizzazione degli stessi dal bit allo yottabyte, che contiene una quantità di dati inimmaginabile e non facilmente circoscrivibile. I cosiddetti Big Data sono quindi le informazioni che ogni minuto lanciamo nel web e la cui quantità è quasi impossibile stimare.

Abbiamo più volte detto che gli algoritmi non capiscono ma mettono in correlazione gli stessi tra loro e attraverso osservazione e autoapprendimento, giungono a “prevedere” il significato di una frase o di un’immagine o addirittura un accadimento futuro. Attraverso il massiccio esame dei trend gli algoritmi utilizzano una sorta di matematica della previsione che è impressionante e che ci fa conseguire dei risultati fenomenali.

E’ necessario verificare la “qualità” dei dati, il contesto in cui essi sono stati rilevati e l’architettura dell’algoritmo, come abbiamo detto altre volte. La buona notizia è che oggi riusciamo a prevedere le scelte o le azioni di un essere umano, dalle sue abitudini profilate o addirittura dalla sua espressione facciale rilevata. A Singapore già da anni se un uomo male intenzionato si sofferma troppo davanti ad una vetrina di orologi o gioielli e per caso si concentra sull’idea di commettere un reato, viene avvicinato dalle forze dell’ordine che lo intercettano prima ancora dell’azione. Assistiamo alla acquisizione di società come la Quantum Black, (che dava ai commentatori televisivi le previsioni di sorpasso dei piloti di formula 1 nel corso di una gara mediante un sistema di advanced analytics sempre più performante) da parte di colossi come Mc Kinsey. Ancora più profondamente ci troviamo di fronte ad una IA che, se opportunamente guidata, può portare a risultati utilissimi in tutti i campi dell’azione umana, come la società Deep Trace, che sviluppa sistemi di medicina predittiva in grado di prevedere se un paziente svilupperà o meno una malattia, con un margine di accuratezza di previsione vicino alla perfezione e che adattando la propria piattaforma può essere utilissima nel passaggio dalla diagnosi alla prognosi in campo medico.

Ecco, in questo contesto in evoluzione esponenziale, notiamo che nel campo del diritto si registrano alcune novità impressionanti. E’ stato elaborato, ad opera di un team romano di ricerca applicata che ha le sue promanazioni in San Francisco, il software LISIA, un servizio pensato da avvocati per gli avvocati. Sarà sufficiente d’ora in avanti inserire un quesito legale in linguaggio naturale in una barra di ricerca per avere in pochi secondi solo le sentenze e le massime altamente pertinenti con addirittura evidenziata la parte della sentenza integrale che interessa. Si può dire addio alla ricerca per parole testuali.

La domanda che sorge spontanea ora è che, posto che gli algoritmi sono disegnati e commissionati dall’uomo, occorre o no stabilire una certa codificazione del rapporto tra etica e diritto nel tentativo di governare l’Intelligenza Artificiale? La risposta è affermativa. In ognuno dei campi di possibile applicazione dell’IA occorrono risposte giuridiche. In un articolo edito su Foro Amministrativo (Intelligenza Artificiale ed Etica dell’Algoritmo; Foro Amministrativo; anno V fasc. 10- 2018, ed Giuffrè Francis Lefevre) ho affrontato il tema del controllo etico dell’algoritmo. La Commissione europea ha tracciato le linee guida di come deve essere disegnato e progettato un algoritmo (Ethic Guidelines for Trustworthy AI; 8 April 2019); il Consiglio di stato ha detto come deve essere l’algoritmo (Consiglio di Stato sez. VI, sentenza n. 2270/2019); il Garante della Privacy si sta occupando in continuazione del complesso rapporto fra diritto alla privacy ed esigenza di garantire la sicurezza della collettività attraverso continui contributi di raccomandazione sulla vigilanza in merito agli algoritmi (ex multis, Newsletter del 25 marzo 2019); il think tank del Parlamento Europeo è continuamente al lavoro per delineare un quadro normativo adeguato anche in tema di responsabilità civile; Il Ministero dello Sviluppo Italiano ha emanato proposte per una Strategia Italiana per l’Intelligenza Artificiale (giugno 2020) ed è un continuo di raccomandazioni e consigli e consultazioni pubbliche attorno al tema, da parte di organismi pubblici nazionali ed europei.

Abbiamo già trattato brevemente i temi della responsabilità per danni e della necessità di coperture assicurative obbligatorie; è necessario però fare una o più riflessioni sul come la IA verrà utilizzata nel campo del diritto.

Non v’è dubbio che con il completamento della digitalizzazione della PA, si arriverà alla utilizzazione di sistemi di IA sia nella PA che nelle aziende che nei tribunali.  

Non possiamo permetterci di lasciare che la governance dell’IA arrivi ex post. Riteniamo non sia giusto sprecare una opportunità come quella che abbiamo davanti con tutti i fondi stanziati per attraversare la nuova epoca. Siamo comunque in ritardo, ma ancora in tempo per trovare la giusta dimensione e scrivere le norme cardine di una regolazione sì flessibile, ma ferma su alcuni punti indefettibili che possano ispirare tutta la legislazione successiva. Così come insegno nel mio corso di Market Regulation alla Sapienza di Roma, che non ci può essere una eccessiva regolazione perché il mercato deve essere libero di espandersi a suo piacimento, ritengo sia necessario fare in modo che le imprese si muovano all’interno di una cornice regolatoria precisa, con delle regole stringenti e certe.

In tema di responsabilità, ad esempio, sarà difficile stabilire se un robot il cui algoritmo è stato mal congegnato, è responsabile per i danni da questo cagionati, o se lo è il proprietario che non lo ha addestrato in maniera adeguata, o chi ha disegnato l’algoritmo senza rispettare le regole. Allo stesso modo se una macchina a guida autonoma si è schiantata contro un tir in una giornata di sole perché un riflesso naturale non previsto le ha fatto modificare traiettoria, sarà complicato risalire al responsabile. Cosa dire in merito alla scelta etica in caso di malfunzionamento dell’auto autonoma, su chi sacrificare tra i passanti, gli occupanti dell’auto, o fra le persone anziane, le donne, o i bambini.

Non c’è oggi una risposta univoca, ma certo è che dovranno uscire, accanto alla Direttiva Macchine (del 29/02/2016 sul rischio da contatto tra uomo e robot) altre direttive e norme che possano, da un lato individuare il responsabile più prossimo e dall’altro, in caso di impossibilità, di stabilire tale connessione eziologica, definire un sistema di solidarietà fra le parti. Per questo si è pensato a più livelli, che un sistema assicurativo generale potrà supplire ad eventuali carenze e soprattutto potrà soccorrere la parte debole per definizione, che è quella che ha subìto un danno a causa di un malfunzionamento indotto anche se giustificato da vari fattori.

È evidente che tutto questo necessita di un trattamento diverso a seconda del caso, ma anche che devono essere stabilite delle regole che non possono essere quelle imposte dai produttori come Tesla che ha dichiarato che in caso di incidente la Tesla salverà il proprietario dell’auto. Sono quesiti seri cui si deve dare risposta ora.

Leggo con piacere che il presidente Di Confindustria Carlo Bonomi ha coniato lo slogan nel suo discorso di apertura all’assemblea pubblica e di insediamento e lo ha chiamato “il coraggio del Futuro”. Siamo senza dubbio d’accordo, ma ciò significa a mio avviso che dobbiamo avere immediatamente il coraggio del presente! Agire ora, con un senso di urgenza per essere degni e donare alla next generation EU esattamente il mondo di cui avrà bisogno. Non possiamo permetterci di sbagliare. Il momento è adesso. Con il recovery Fund (e non found come purtroppo dicono tutti i commentatori) e tutti gli altri strumenti che abbiamo a disposizione, in cui includo a fortiori anche il MES (per ovvie ragioni), abbiamo l’opportunità di modificare il corso della storia di questo paese. E allora facciamolo, con dei tavoli che partono dal basso e che si diffondono esattamente in maniera virale per raggiungere la conoscenza e poi per trovare e mettere a fuoco i problemi, risolverli con etica e lungimiranza.

Torniamo quindi al diritto, che mai come questa volta insieme ai numeri, è chiamato a fare la sua parte.

Tralasciamo per ora i concetti di robotica roboetica soggettività giuridica dei contenitori di IA e dei loro diritti, cui verrà dedicato un capitolo a parte, nonché gli smart contract e i criteri di interpretazione delle responsabilità in tutti i campi in cui essa viene utilizzata. Concentriamoci quindi con l’infrastruttura giuridica o di soft law che dir si voglia, per addivenire ad alcune conclusioni condivisibili.

Una prima considerazione è quella intorno all’Etica, perché etica è anche diritto, o meglio, talvolta l’etica viene incorporata in una norma che diventa diritto. Allora partendo da questo assunto possiamo dire che una norma che contiene un principio etico merita di essere inserita (rectius, trasfusa) nel quadro regolatorio che imporrà la realizzazione degli algoritmi secondo determinati standards.

Paolo Benanti, uno degli high level experts nominati dalla Commissione Europea ci parla sempre più di frequente, di “Algoretica”. Da qui si deve partire a mio avviso.

A tale proposito l’UE, come detto ha già emanato delle linee guida su come deve essere congegnato un algoritmo non travalicando mai i principi fondamentali dell’uomo. Un algoritmo deve essere trasparente, non discriminatorio, accessibile a chi ne abbia interesse, per verificare sempre ex post quale è stato il percorso guidato che ha portato al risultato desiderato o meno. La giurisprudenza si è già occupata di questo e se ne occuperà sempre di più man mano che i sistemi di IA si diffonderanno.

Una volta stabilita la cornice di base entro cui far muovere i principi e i limiti al di sotto dei quali sarebbero violati gli standards di qualità, occorrerà agire nel dettaglio di ogni settore e strumento, per evitare che uno sforzo fatto in un campo venga vanificato dall’eccessiva rigidità o flessibilità nell’altro. Non si può pensare ad esempio di regolare un settore relativo alla privacy, come di fatto con il GDPR (nota) è stato regolato, senza pensare alla sicurezza dei dati ed alla loro qualità; così a seguire, regole per l’obsolescenza dei sistemi e quant’altro necessario per l’armonizzazione di un ordinamento che deve essere nuovo, su solide basi antiche, ma nuovo a tutti gli effetti. Occorre essere in grado di coniugare tutti questi aspetti per usufruire della parte buona della tecnologia e insistere sulla ecosostenibilità ambientale. Green and blue intitola il suo libro il filosofo contemporaneo Luciano Floridi; solo così potremo salvare il pianeta. In proposito tuttavia, vanno adeguatamente valutati i costi di sostituzione degli elementi utilizzati.

Allora, in conclusione, salvo tornare più volte in argomento, una volta stabiliti i principi fondamentali e integrate e armonizzate le norme di riferimento si potrebbe da un lato, agire con sistemi di raccomandazione e di soft law e dall’altro agire con strumenti quali governance e meta regulation.

Ma non v’è dubbio che occorrerà a mio avviso anche istituire delle Autorità Amministrative indipendenti specializzate, che possano lavorare insieme alle altre già esistenti in Italia e in Europa per continuare a salvaguardare i soggetti più deboli della catena e consentire al tempo stesso il libero giuoco della concorrenza.

Stefano Crisci

Richiedi una consulenza

Fiscolexnews oltre ad offrire ai propri lettori informazioni e aggiornamenti sui principali argomenti in materia fiscale, legale e del mondo dell’impresa, implementa il proprio servizio offrendo la sezione “Richiedi una consulenza”. Sarai messo in contatto diretto con i nostri esperti nelle varie materie, che saranno pronti a fornire consulenze mirate e specifiche su quesiti ad hoc.