Intelligenza artificiale: il White Paper della UE in 5 punti

Pubblicato dalla Commissione UE il White Paper su Intelligenza Artificiale. L'UE investirà 20 miliardi all'anno nei prossimi 10 anni ed è in agenda l'emanazione di un Regolamento ad hoc.

Intelligenza artificiale White Paper UE

In questi giorni la Commissione Europea ha pubblicato un White Paper per mostrare quali sono i suoi obiettivi sul tema dell’Intelligenza Artificiale.

La volontà è quella di attrarre non solo capitali, ma persone, creando un ecosistema di eccellenza e di network tra ricercatori e imprese. Ad esso deve affiancarsi un ecosistema di fiducia, fondato su un nuovo Regolamento che l’UE ha intenzione di varare nei prossimi anni.

Il White Paper non è soltanto una dichiarazione di intenti. È una visione chiara della direzione intrapresa dall’Europa su un tema cruciale per la nostra democrazia.

Ci sarebbe tanto di cui discutere e approfondire, ma ho deciso di limitarmi a 5 punti chiave, sperando di stimolare una riflessione tra i lettori.

La conferenza stampa di Ursula von der Leyen, Presidente della Commissione UE, a margine della pubblicazione del White Paper

1. PERCHÉ LA FUTURA MIGRAZIONE DEI DATI È UNA BUONA NOTIZIA PER L’EUROPA.

A livello mondiale l’economia digitale sta per affrontare un cambiamento che può scalfire – o perlomeno mettere in discussione – l’attuale egemonia delle grandi corporation le quali, traendo valore dai dati personali di cui dispongono, detengono un potere informazionale illimitato.

Fino ad oggi, la data economy si è nutrita in gran parte di dati riferibili a consumatori; dati che vengono elaborati e conservati in maniera centralizzata su infrastrutture cloud.

Questo scenario ha rafforzato la posizione politica e commerciale dei colossi proprietari delle piattaforme più diffuse tra gli utenti e i consumatori, a partire dai soliti noti (Apple, Facebook, Amazon e Google), che avendo sfruttato e generato a sua volta gran parte del valore connesso ai dati, sono stati capaci di acquisire via via un margine competitivo senza precedenti.

Questa videografica dimostra che negli ultimi 10 anni le aziende con i maggiori profitti sono quelle che hanno saputo sfruttare il valore dei dati e il conseguente potere informazionale.

Nel prossimo futuro, però, questo scenario potrebbe mutare profondamente in virtù della diffusione di sistemi di intelligenza artificiale (IA): una quantità di dati sempre maggiore sarà infatti generata dall’industria, dall’impresa e dal settore pubblico che li conserverà su una pluralità di sistemi e, nello specifico, su dispositivi operativi ai margini dell’intero network.

Un processo di decentralizzazione delle reti (e dei dati) che stravolgerà i rapporti di forza attuali.  In questo scenario – oramai prossimo – l’Europa intravede una grande opportunità, potendo vantare una forte tradizione proprio in quei settori industriali fortemente digitalizzati e caratterizzati da un ampio utilizzo di applicazioni B2B, i quali beneficeranno maggiormente del cambiamento avviato dai sistemi IA.

L’Europa ha quindi reali chances di diventare un leader globale della new data economy, potendo contare sullo sviluppo di nuovi prodotti e servizi nelle aree in cui le sue imprese – pubbliche e private – sono particolarmente forti (es.: trasporti, sicurezza informatica, agricoltura, sanità e settori ad alto valore aggiunto come la moda e il turismo).

A trarne beneficio saranno anche i cittadini, ad esempio in termini di maggiore sicurezza dei sistemi di trasporto, o di un miglioramento dell’assistenza sanitaria o dei servizi pubblici. Lo sviluppo dell’intelligenza artificiale potrà inoltre contribuire a ridurre i costi di forniture dei servizi primari o di interesse pubblico (es.: trasporti, istruzione, gestione della energia e dei rifiuti); migliorare la sostenibilità dei prodotti quale elemento cruciale per raggiungere gli obiettivi del Green Deal europeo; oltre a dotare le autorità di controllo e la forza pubblica di strumenti più efficaci per assicurare la sicurezza dei cittadini.

2. L’UE HA 4 MOTIVI PER SPERARE IN UN RUOLO DA PROTAGONISTA

Sono quindi in atto enormi cambiamenti nel modo in cui si creerà valore con i dati e nel modo in cui gli stessi verranno utilizzati da parte di organizzazioni pubbliche e private.
La fotogravia attuale colloca l’Europa in una posizione di debolezza nel contesto delle piattaforme online e delle applicazioni in uso presso utenti e consumatori, ma nei prossimi 5 anni potrebbe approfittare dei nuovi trends della data economy per imporsi come protagonista.
C’è un dato che sorprende: il volume di dati prodotti nel mondo sta ancora crescendo e in modo esponenziale: dai 33 Triliardi di byte (1021 byte) del 2018 si stima di raggiungere i 175 triliardi di byte nel 2025.
Insieme a questo dato si registra anche un cambiamento di proporzione fra il numero dei dati elaborati e conservati in data center centralizzati, ancora oggi pari all’80 % del totale, e i dati invece processati da dispositivi più vicini all’utente, come smart cars o applicazioni di domotica. La produzione di questi dati è ancora relegata ad una percentuale minoritaria (20%), ma gli indicatori economici parlano di una netta inversione di rotta.

Il volume dei dati crescerà in maniera esponenziale, come si può notare dal grafico.

La nuova ondata di dati che travolgerà l’economia globale offre all’Europa l’opportunità di posizionarsi come leader global del settore, per favoire la diffusione dell’intelligenza artificiale.
Ci sono almeno 4 motivi che depongono a suo favore:

  1. L’Europa è leader globale della elettronica a basso consumo (o alta efficienza), che è un settore chiave per la prossima generazione di processori dedicati alla tecnologia IA, avendo l’obiettivo di ottimizzare il consumo di energia dei dispositivi mobili o dei loro sensori di comunicazione wireless;
  2. L’Europa si pone anche ai vertici della ingegneria neuromorfica che si propone di sviluppare circuiti integrati di calcolo capaci di imitare le architetture neuro-morfiche presenti nel sistema nervoso. Si tratta di soluzioni ideali per l’automazione dei processi industriali (industria 4.0);
  3. I recenti progressi nel “quantum Computing” lasciano presagire scenari impensabili fino a pochi anni fa. Un “quantum” computer è infatti in grado di elaborare un numero di dati al secondo molto più elevato rispetto ai computers attualmente più performanti. L’Europa è da tempo all’avanguardia di questa tecnologia, grazie alla forte propensione accademica, e ad un avanzato sviluppo industriale nei simulatori e nella programmazione quantistica.
  4. Gli investimenti presenti e futuri – già programmati – su ricerca e innovazione consolideranno la posizione di leadership dell’Europa nello sviluppo degli algoritmi alla base della tecnologia IA.

3. LE SFIDE PRINCIPALI SUL FRONTE LEGISLATIVO

Per mantenere questo vantaggio competitivo e cogliere le opportunità della data economy, l’UE è consapevole di dover emanare al più presto un quadro normativo organico e comune a tutti gli Stati Membri.
Tuttavia, sono numerosi gli ostacoli da superare in questa fase.

Primo fra tutti, quello di regolamentare una tecnologia caratterizzata da un elevato grado di “opacità”, che risiede nella complessità degli algoritmi alla base della tecnologia stessa.

La logica degli algoritmi sfugge sempre più spesso alla comprensione degli utenti e talvolta anche a quella degli esperti che la vorrebbero correggere.

Purtroppo, questa intrinseca “opacità” sembra destinata ad aumentare ogni volta che gli algoritmi diventano più accurati e precisi, riuscendo a “trarre insegnamento” da una mole sempre più grande di dati per compiere le loro scelte. Vi è quindi il rischio concreto che nei prossimi anni si arrivi ad una condizione per cui la complessità dell’algoritmo sarà tale da non permettere all’uomo di comprendere la logica sottesa alle scelte della macchina (si parla di comportamento “black box”)

L’immagine rappresenta un ipotetico comportamento black box, dipeso dalla opacità tipica di un sistema IA

Un altro elemento di criticità è la rapida evoluzione della tecnologia IA; in questo senso, predisporre una normativa troppo stringente che non lasci spazio di manovra ai prossimi sviluppi potrebbe essere controproducente, frenando la competitività delle aziende europee. Dall’altra, una normativa poco chiara potrebbe produrre, in questo campo, più danni che benefici.

Una legislazione efficace dovrà inoltre essere in grado di mitigare i rischi di potenziali danni, materiali e immateriali, connessi all’uso dell’intelligenza artificiale. A partire da possibili violazioni dei diritti fondamentali alla base dei valori fondanti l’UE.

Non è un mistero che l’IA si possa tramutare in un potente mezzo nelle mani di chi voglia tracciare e analizzare le abitudini quotidiane delle persone, con possibili abusi verso pratiche di sorveglianza di massa o di controllo diretto degli interessati, soprattutto in alcuni ambienti sensibili (come quello di lavoro).

Analizzando grandi quantità di dati e individuando collegamenti tra di essi l’IA può essere anche utilizzata per de-anonimizzare i dati, creando nuovi rischi privacy con riguardo a data-base di per sé innocui. Si pensi ancora alle applicazioni utilizzate per moderare in maniera automatizzata contenuti e commenti presenti sui social network: le decisioni prese dagli algoritmi possono pregiudicare i diritti alla libertà di espressione o altri diritti connessi.

A questi si aggiungano i rischi per la sicurezza degli utenti: ad esempio, un’auto a guida autonoma, a causa di un difetto nel sistema di riconoscimento degli oggetti, potrebbe identificare erroneamente un oggetto provocando danni a persone o cose. Se un tale rischio si materializza, nasce l’esigenza di avere un regime di disposizioni chiare in materia di responsabilità; in loro assenza l’incertezza giuridica potrebbe ridurre ulteriormente la sicurezza dei cittadini e, dall’altra, compromettere la competitività delle imprese, che non riconoscono i confini legali e, quindi, l’ampiezza e i limiti della loro responsabilità.

Un drone che utilizza un algoritmo di riconoscimento degli oggetti per individuare le macchine presenti nella sua visuale.

Tenuto conto dei rischi legati all’uso della tecnologia IA, la Commissione ha elencato alcun punti utili a migliorare il quadro legislativo in materia:

  • Efficace applicazione ed esecuzione della vigente legislazione nazionale e comunitaria: secondo la Commissione bisogna partire dall’esistente, allo scopo di “aggiustare” le norme in vigore per renderle efficaci nei confronti di una tecnologia nuova, che necessita di nuovi criteri e parametri anche in termini di responsabilità;
  • Riflessioni sui limiti attuali di applicazione della legislazione UE: a livello comunitario la normativa sulla sicurezza si applica ai prodotti e non ai servizi e, quindi, in linea di principio non ai servizi basati sulla tecnologia IA (ad es. servizi sanitari, servizi finanziari, servizi di trasporto). Il legislatore comunitario deve colmare questa attuale lacuna.
  • Cambiamento delle funzionalità dei sistemi di IA: un software IA integrato in prodotti e sistemi può modificarne il funzionamento durante il loro ciclo vitale. Il fenomeno è rilevante in quei prodotti o sistemi che richiedono frequenti aggiornamenti del software o che si basano su tecnologie di machine learning. Queste caratteristiche possono dare origine a nuovi rischi che non erano stati valutati al momento della loro immissione sul mercato. Inoltre, tali rischi sono sostanzialmente ignorati dalla normativa vigente.
  • Incertezza nella ripartizione delle responsabilità tra i diversi operatori economici di una stessa filiera: In linea generale, la legislazione dell’UE sulla sicurezza dei prodotti assegna la responsabilità al produttore del prodotto che è stato immesso sul mercato e, nella definizione di prodotto, vi rientrano tutti i suoi componenti, fra cui gli eventuali sistemi di intelligenza artificiale. Alcuni scenari restano però scoperti dalla norma: si pensi a caso in cui tali sistemi venissero aggiunti in un momento successivo all’immissione sul mercato del prodotto. Inoltre l’odierno dettato normativo delega agli Stati Membri l’emanazione di una disciplina sulla responsabilità dei diversi operatori economici di una filiera; il che produce frammentazione normativa e suscita incertezza tra gli stessi operatori.
  • Modifiche al concetto di sicurezza: tali modifiche sono necessarie in ragione dei nuovi rischi collegati alla cyber-sicurezza, alla perdita di connettività o connessi alla sicurezza personale derivanti dall’utilizzo su larga scala dell’intelligenza artificiale in contesti sensibili (es. medicina).

4. UNA NORMATIVA AD HOC SOLO PER LE “APPLICAZIONI IA” AD ALTO RISCHIO

In linea di principio, il nuovo quadro normativo per l’IA dovrebbe imitare l’impostazione del regolamento europeo sulla protezione dei dati(GDPR), riducendo al minimo l’elemento prescrittivo, per evitare oneri e adempimenti eccessivi in capo alle PMI.

Si torna quindi a parlare di approccio basato sul rischio, in quanto offre garanzie in termini di proporzionalità del precetto normativo: maggiore sarà il rischio derivante dall’utilizzo di un sistema IA, più stringenti saranno le misure tecniche e organizzative che la norma richiederà di implementare a chi verrà individuato come soggetto a ciò preposto.

La Commissione UE, nel redigere il suo White Paper, ha fatto tesoro delle precedenti Linee Guide emanate dal Gruppo di esperti sull’Intelligenza Artificiale.

Al riguardo, il discrimine che la Commissione propone di introdurre è fra applicazioni IA ad alto rischio, ponendo quest’ultime su un piano – anche normativo – diverso da quelle a rischio più basso.

Sarà quindi fondamentale prevedere criteri certi che possano guidare l’interprete nella determinazione di ciò che è o non è ad alto rischio, posto che soltanto le applicazioni ad alto rischio saranno sottoposte ad un regime normativo ad hoc, mentre le restanti applicazioni saranno soggette alle norme UE già esistenti.

Nello specifico, un’applicazione IA dovrebbe essere considerata ad alto rischio quando soddisfa entrambi i seguenti criteri:

  • l’applicazione AI è impiegata in un settore in cui si possono prevedere rischi significativi. Sarà importante prevedere un elenco certo dei settori sensibili (es.: il trasporto o l’assistenza sanitaria), stabilendo i tempi entro cui tale elenco dovrà essere rivisto ed eventualmente modificato;
  • l’applicazione AI impiegata in un settore sensibile è utilizzata in maniera tale da comportare rischi significativi. Ciò significa che alcune applicazioni IA, sia pure impiegate in settori sensibili, possono essere escluse dall’applicazione della normativa, laddove non presentino rischi elevati in relazione alle modalità di utilizzo.

A detta della Commissione, la corretta applicazione dei due criteri cumulativi garantisce certezza giuridica, perché individua in modo chiaro quali applicazioni sarebbero soggette al quadro normativo e quali ne sarebbero escluse.  

Potrebbero infine essere individuati casi eccezionali (e tipici) in cui, a causa dei rischi in gioco, l’uso di applicazioni IA per determinati scopi è da ritenersi ad alto rischio in quanto tale e quindi non si dovrebbe procedere ad alcuna valutazione ulteriore sulle modalità di utilizzo.
Tra gli esempi: l’uso di applicazioni IA nella selezione di candidati e in altre situazioni in cui si incide sui diritti e le libertà di lavoratori o consumatori; l’uso delle applicazioni IA per finalità di identificazione biometrica o di sorveglianza particolarmente intrusiva.

5. I REQUISITI DI CONFORMITÀ SU CUI COSTRUIRE LA FUTURA NORMATIVA

Nel progettare il futuro quadro normativo, sarà necessario definire una serie di requisiti giuridici obbligatori da rispettare qualora l’applicazione IA rientri fra quelle ad alto rischio.
La Commissione ha elencato i seguenti requisiti:

  • TRAINING DATA: il requisito servirà a garantire il rispetto dei valori e delle norme UE nelle fasi di formazione dei dati, utile ad “allenare” l’algoritmo per monitorare i risultati a cui lo stesso giunge. Questo per evitare qualunque evento di discriminazione o violazione di dati personali.
  • LA TENUTA DI RECORDS E DATI: è il requisito che intende limitare l’opacità e la complessità degli algoritmi, consentendo una verifica a posteriori delle azioni o decisioni;
  • ADEGUATA INFORMAZIONE: la trasparenza è un elemento chiave per creare un clima di fiducia tra operatori ed utenti. In particolare, per gli utenti dovrebbe essere facile comprendere quando stanno interagendo con un’applicazione IA;
  • SOLIDITÀ ED ACCURATEZZA: la fiducia passa attraverso applicazioni tecnicamente solide, progettate in maniera responsabile e con una valutazione ex ante dei rischi che possono generare durante tutto il ciclo vitale. Questo requisito richiede che le applicazioni siano sviluppate in modo tale da poter affrontare eventuali errori o incongruenze;
  • CONTROLLO DELL’UOMO: si vuole assicurare che i sistemi di IA non pregiudichino l’autonomia umana o causare altri effetti negativi. Sarà importante definire il grado di controllo appropriato per ogni livello di rischio. In alcuni casi potrebbe essere necessario il controllo dell’uomo per “validare” qualsiasi output dell’applicazione; in altri casi, invece, potrebbe essere necessario un monitoraggio costante e in real-time con possibilità di intervento (es. per la guida autonoma) oppure si potrebbe limitare l’intervento dell’uomo ad una fase successiva e renderlo facoltativo. Sul punto, la Commissione ritiene che sia necessaria una valutazione caso per caso, sulla base di criteri certi.
  • REQUISITI SPECIFICIPER L’IDENTIFICAZIONE BIOMETRICA A DISTANZA: Le implicazioni per i diritti fondamentali nell’uso di sistemi di identificazione biometrica possono variare considerevolmente a seconda della finalità, del contesto o dell’ambito di utilizzo (si pensi al rischio di un sistema di riconoscimento facciale installato in un aeroporto per finalità di sicurezza, rispetto a quello di un analogo sistema di domotica per l’accesso in una casa privata).

Infine, ci sono due questioni principali da considerare in relazione all’applicazione dei requisiti.
Innanzitutto, la questione di come distribuire gli obblighi tra gli operatori economici coinvolti. La progettazione, distribuzione e gestione di un sistema IA impegna diversi attori (produttore, distributore, gestore o fornitore di servizi, utente professionista o consumatore).

Il criterio deve essere quello di stabilire ogni responsabilità in capo all’attore che si trova nella posizione migliore per affrontare qualsiasi rischio potenziale.

In secondo luogo, vi è la questione della portata geografica dell’intervento legislativo.
In tal senso, La Commissione sembra intenzionata a riprodurre le disposizioni del GDPR, rendendo i requisiti applicabili anche ad operatori non stabiliti in UE, laddove offrano prodotti o servizi abilitati all’IA all’interno dei confini comunitari.