L’intelletto umano alla base della I.A. e le sue implicazioni giuridiche

L’intelletto umano è quello che ha innato il c.d. “significato” delle cose, ciò che manca totalmente alla macchina. Ed è quindi la coscienza, che alla macchina manca, a guidare l’uomo nell’elaborazione dell’algoritmo. Naturalmente questo pone una serie di problemi che vanno governati a livello giuridico.

Man mano che ci si addentra nel meraviglioso mondo dell’IA ci si accorge che non si potrà fare a meno dell’ausilio delle macchine diversamente intelligenti. Ciò emerge nitidamente sol che si guardi all’interno di uno smartphone e ci si faccia guidare nell’“infosfera” (così definita dal filosofo Luciano Floridi nel suo libro “la quarta rivoluzione”). Una realtà solo qualche anno fa inimmaginabile ci si para davanti agli occhi. Abbiamo la possibilità di viaggiare nella biosfera di tutto il pianeta simultaneamente, così come acquisire tutte le informazioni del mondo in un attimo. All’improvviso sembra che non serva più un libro o l’esperienza di vita, perché tutto si può apprendere all’istante dalle vite degli altri. Condividendo informazioni e profilando intere moltitudini di individui gli algoritmi ci guidano verso ciò che ci inducono a ritenere sia giusto. Non sempre è così e il primo errore è lasciarsi guidare acriticamente. Tuttavia non si può non condividere l’assunto che la tecnologia e lo sharingknowledge siano un binomio assolutamente accattivante e decisivo per la risoluzione di una quantità enorme di problematiche.

Sono sempre molto contento che la mia Alexa trovi la migliore musica per me o mi consigli esattamente cosa fare e dove trovare ciò che mi piace. Adoro ordinare a Siri di portarmi in un posto o di prenotare un tavolo al ristorante. Mi piacerà ancor di più se mi trasporterà in guida autonoma da un posto all’altro della città mentre finisco di scrivere l’ultima pagina del mio libro. Come nel periodo di lock down, avrò più tempo a disposizione per dedicarmi a ciò che più mi piace.

Ma l’IA è molto di più. Con i suoi algoritmi ed il machine learning siamo già oggi in grado di andare in zone accidentate e di far lavorare le macchine in maniera infallibile e senza pericolo; riusciamo a fare operazioni chirurgiche a distanza con tecnologie di precisione in modo da salvare una vita che si sta spegnendo 400 km lontano dal punto in cui i chirurghi stanno operando; la telemedicina risolverà i problemi di immediatezza, trasporto o ricoveri oggi impossibili; con l’ape drone di Walmart possiamo impollinare i fiori come vogliamo senza paura degli anticrittogamici che stanno provocando la morte delle api naturali; con l’ausilio dei droni possiamo decidere di dare acqua ad alcune piante soltanto e non ad allagare i campi indistintamente, così risparmiando acqua e salvaguardando il pianeta. Non a caso è stato vergato il libro green and blue (sempre di Luciano Floridi); l’IA riesce a profilare il cliente che viene in vacanza e ad accompagnarlo fin dalla prenotazione e dopo verso ciò per cui ha deciso di visitare quei posti; uno speciale scanner dotato di IA, commissionato dalla fondazione Cini ha il compito di catalogare ogni contratto intervenuto nei quartieri di Venezia, ricostruendone così la vita per sempre e addirittura prevedendone ipotesi di sviluppo; l’IA è in grado di riprodurre la pittura di artisti come Van Gogh o Picasso per restaurare opere d’arte rovinate e con l’ausilio della blockchain garantirne l’“originalità”. Questa ed altre migliaia di applicazioni possono essere utilizzate con successo in un mondo che corre sempre più, nonostante il lockdown; nel campo della finanza e vieppiù in quello del diritto soluzioni ai problemi verranno risolte da un ricercatore elettronico diversamente abile. Tutto questo ha una o più criticità: il mondo non è pronto e la gente è diffidente, ma la cosa sta galoppando veloce. Dice Paolo Benanti nel suo ultimo libro (tra “Algoretica” e “Algocrazia”) che certi tipi di tecnologia avanzano non in modo lineare, ma su curve esponenziali. Ciò significa che ogni periodo all’interno di queste curve vede più innovazione rispetto a tutti i periodi precedenti messi insieme. Allora, poiché ricordiamo sempre che l’intelletto umano è quello che ha innato il c.d. “significato” delle cose; ciò che manca totalmente alla macchina, la capacità istintiva o contestuale, che attraverso l’evoluzione del nostro cervello ci dà la capacità di esprimere la proprietà più formidabile, la coscienza, ci dovrebbe far capire che possiamo e dobbiamo sentirci superiori alle macchine. E’ quindi nostro dovere specifico conoscere il fenomeno e governarlo. Ricordo sempre la citazione di Stephen Hawkings che diceva che il vero potere dell’IA è nella conoscenza. Ciò posto, con questa consapevolezza nella mente, occorre fare un breve focus su tutto il framework esistente.

Se molti infatti sono i vantaggi dell’IA, e molteplici i settori delle sue applicazioni come sopra solo accennati per esigenze di brevità, molte sono purtroppo le criticità alle quali dobbiamo far fronte velocemente costituendo un nucleo di consapevolezza e lavorando alacremente per il loro superamento, con lungimiranza e adottando ora un’approccio etico che consenta di non pentirci in seguito, di non averlo fatto o di averlo fatto male.

Le questioni che si pongono, sono innanzi tutto relative alla definizione stessa di Intelligenza Artificiale, che ci porta alla ricerca di un inquadramento giuridico della fattispecie. Ne discende a cascata una serie di implicazioni che attengono alla libertà di impresa (art. 41 Cost.) alla proprietà intellettuale, alla responsabilità per danni cagionati a terzi nell’utilizzo della stessa, alla regolazione dei mercati ed alla normativa specifica da dedicare al fenomeno. Una volta assodato il quadro generale, vediamo che moltissimi sono i campi in cui l’uomo può e deve operare ora e non fra qualche anno, al fine di impostare per le generazioni future l’algoritmo perfetto, ammesso che esista. Ricordiamo infatti che attraverso le curve esponenziali di cui sopra, la tecnologia potrebbe non smettere di sorprenderci e si potrebbe arrivare prima del previsto (almeno 50 anni) alla c.d. “singolarità”, ossia una sorta di distacco dell’intelligenza artificiale dall’algoritmo disegnato dall’uomo e produzione di algoritmi autonomamente sviluppati dalla macchina.

Senza doverci allarmare con immagini dal sapore fantascientifico e sapendo di avere del tempo davanti è bene soffermarci su quanto detto sopra per impostare al meglio lo sviluppo futuro. Sarà così possibile, sempre per usare uno degli esempi di Padre Paolo Benanti avere un polmone verde in una città di cemento come New York, che nessuno mai potrà intaccare.

Del resto, una volta impostato bene il quadro sopra delineato, dovremo comunque affrontare una serie di altri problemi che attengono alla c.d. accountability, ossia all’accettazione di questa nuova forma di progresso, al cd reskilling dei lavoratori, ossia al riposizionamento degli stessi nell’ambiente di lavoro in cui alcune mansioni siano state sostituite dalle macchine e quindi una sorta di upgrading degli stessi, alla tutela di coloro  quali non potranno modificare le proprie mansioni e saranno costretti ad uscire dal mondo del lavoro, al c.d. digital divide, ossia al rifiuto del digitale di alcuni individui e quindi necessariamente l’impossibilità di inserirli appieno nel nuovo contesto sociale in continua e costante evoluzione.

Segue un’altra nuova serie di problematiche da affrontare che attengono alla legittimità di alcuni procedimenti, alla trasparenza, ma anche alla privacy (GDPR), alla sicurezza (Cyber security), alla trasparenza.

Tutto questo necessita una trattazione quasi simultanea e tempestiva.

Torniamo quindi brevemente alla definizione di intelligenza artificiale per tentare di arrivare ad un potenziale inquadramento giuridico della stessa.

La prima presa di posizione formale del Parlamento Europeo rispetto al fenomeno ed al rapporto futuro tra diritto, etica ed intelligenza artificiale è stata la risoluzione del 16 febbraio 2017 con le prime raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica.

Essa per la prima volta invita la Commissione a definire l’IA, tenendo conto di alcune specificità precipue della stessa: si va dalla autonomia grazie a sensori e mediante scambio di dati e analisi degli stessi ad un supporto fisico minimo, all’adattamento del proprio comportamento all’ambiente, all’assenza di vita biologica.

Il gruppo di high level experts nominato dalla Commissione europea ha quindi tentato di dare una definizione dell’IA. Si tratterebbe di sistemi software che acquisiscono dati e sulla base di un obiettivo fissato preventivamente dall’uomo, sono in grado di elaborarli attraverso un procedimento di autoapprendimento e decidere le migliori azioni per raggiungere l’obiettivo prefissato.

Indipendentemente dalla definizione, comunque, ciò che appare decisivo in questa fase è definire il quadro normativo e le regole etiche e giuridiche che saranno necessarie per governare il fenomeno con le evidenti peculiarità derivanti dalla sua applicazione in infiniti segmenti di mercato e sia nel mondo privato, che nel pubblico. Allora sorge spontanea una riflessione; sarà sufficiente applicare le norme che già sono a disposizione, o sarà necessario fare delle norme ad hoc?

Ad avviso di chi scrive, per la maggior parte sarà utile e decisivo applicare bene alle fattispecie le norme già esistenti, ma l’attenzione deve focalizzarsi più sul momentum, ossia il segmento decisionale e di elaborazione dal quale promanerà il risultato. Mi spiego meglio: sino ad oggi un provvedimento amministrativo che consta di più fasi si conclude con un provvedimento che si estrinseca nella motivazione dello stesso, attraverso il quale deve trasparire il ragionamento posto alla base del decisum, ossia gli elementi soggettivi ed oggettivi posti alla base delle determinazioni dell’Amministrazione secondo quanto previsto dalla L. 241 del 1990. Se immaginiamo quindi un provvedimento amministrativo indotto da una IA (ed è il caso esaminato dal Consiglio di Stato nel 2019 citato nei miei precedenti scritti su questa rubrica) si assiste come ho sostenuto più volte, ad una “trasposizione” della motivazione da valle a monte, di guisa che il procedimento decisionale è illustrato nell’algoritmo e non più nel provvedimento finale. Occorre quindi che si fissi una regola che consenta di rendere noto il procedimento generativo di tale decisione (non a caso il CDS diede accesso al codice sorgente dell’algoritmo) e che lo stesso sia legittimo e non consenta discriminazioni o violazioni di sorta.

Ecco che lo sforzo del Giudice e poi del legislatore nell’armonizzazione delle regole, sarà quello di interpretare con i canoni comuni fenomeni totalmente nuovi in cui l’asse si sposta continuamente anche secondo un criterio di prossimità con l’uomo, sia nel momento genetico (il design dell’algoritmo) che in quello attuativo-applicativo.

Ecco l’importanza strategica dell’approccio antropocentrico raccomandato dall’Europa nel design dell’algoritmo. Beninteso, l’uomo rimane così importante e la macchina così poco indipendente, che addirittura occorrerà considerare in tema di responsabilità, chi è più vicino alla macchina (il proprietario, l’utilizzatore ecc.).

Quindi, stesse norme, diversi approcci, criteri di prossimità in termini di responsabilità ed una serie di possibili azioni di rivalsa. Quando il danno provocato dal sistema assume dimensioni importanti, allora assicurazioni obbligatorie dovrebbero garantire una tutela adeguata ai danneggiati, salvo il regresso verso chi tale danno ha cagionato.

Stefano Crisci