ETICA E INTELLIGENZA ARTIFICIALE: IL FUTURO STA QUI

Etica e Intelligenza Artificiale: il futuro sta qui
Le linee guida dell'Ue lanciano la sfida di un codice etico per l'intelligenza artificiale.

Ricorre da tempo il tema dell’etica quando si discute di nuovi scenari tecnologici che, in caso di abusi, possono minacciare i valori e i diritti fondamentali dell’occidente.
Il rischio, in questi casi, è di introdurre una discussione troppo generica e astratta, richiamando principi ideali senza avere il coraggio di calarli nell’attuale contesto socio-economico.

L’Unione Europea, invece, sembra avere le idee molto chiare su quale debba essere il peso dell’etica nello sviluppo, distribuzione e utilizzo di una tecnologia innovativa come l’intelligenza artificiale, che di certo non può dirsi agli albori ma la cui identità sembra ancora sfuggente e indefinita; ad oggi, infatti, nessuno è in grado di prevederne le future potenzialità o di immaginare la natura o l’entità dell’impatto che essa potrà produrre da qui a pochi anni.
Preso atto di ciò, la Commissione Europea ha messo in moto un percorso strategico per definire essa stessa il concetto di intelligenza artificiale, consapevole che solo in questa fase embrionale e di sviluppo è ancora possibile mettersi in cabina di regia e plasmare la c.d. “Intelligenza Artificiale Affidabile”, traduzione italiana – e un pò infelice – di “Trustwhorthy AI”.

1. LE LINEE GUIDA DELLA COMMISSIONE EUROPEA.

Si è così giunti alla pubblicazione di linee guida da parte di un Gruppo di esperti – istituito dalla Commissione – per fare il punto sullo stato dei lavori, offrendo soluzioni concrete a chi oggi è impegnato nella realizzazione di sistemi di intelligenza artificiale con l’intento di guidare gli sviluppi futuri.

Si parte da un asssunto che ormai viene ripetuto come un mantra: in un contesto di rapidi cambiamenti tecnologici, la fiducia (“the trust”) deve costituire il fondamento della moderna società delle informazioni.
Da qui, il concetto di intelligenza artificiale affidabile: l’UE è convinta che sia necessario predisporre un preciso quadro legislativo, etico e tecnico su cui basare lo sviluppo di questa tecnologia, identificando così le norme giuridiche, i principi etici e le regole di buona tecnica che dovranno essere applicate in corso d’opera; questo processo – secondo la Commissione – avrebbe effetti positivi per entrambe le parti interessate: i produttori di applicazioni o sistemi di intelligenza artificiale si troverebbero ad operare in un contesto regolamentato, che favorisce una competizione sana e controllata; gli utenti finali, invece, sarebbero più inclini a fidarsi di un prodotto conforme ad uno standard approvato dalle istituzioni europee e certamente allineato ai suoi valori fondanti (rispetto per i diritti umani, democrazia e stato di diritto).

2. L’INTELLIGENZA ARTIFICIALE AFFIDABILE.

Una “Trustwhorthy AI” si ottiene dall’unione di 3 fattori, tra loro complementari:

  • fattore legale: il sistema deve essere conforme a tutte le norme applicabili e pertintenti (“Lawful AI”).
  • fattore etico: il sistema deve garantire l’adesione a principi e valori etici (“Ethical AI”);
  • fattore tecnico: il sistema deve essere solido dal punto di vista tecnico, tenendo conto del contesto sociale in cui opera (“Robust AI”).

Il secondo fattore assume un un ruolo decisivo, influenzando il contenuto e la portata dei restanti due, a partire da quello legale.
Se infatti l’ambito legislativo è necessario per determinare la legittimità di un sistema AI, tuttavia non è sufficiente per garantire il grado di fiducia che intende perseguire l’UE.
L’assunto presuppone una presa di coscienza da parte delle istituzioni: che la legge non riesce a stare al passo dei mutamenti tecnologici e che talvolta si dimostra inadatta ad affrontare determinati problemi. Ragione per cui dovremo affidarci a principi etici per colmare le possibili lacune legislative.

3. I 4 IMPERATIVI ETICI.

Ma quali sono questi principi?
Anche in questo frangente le linee guide indicano la strada in modo chiaro: dobbiamo ricercarli tra le fonti europee che sanciscono i diritti fondamentali dell’uomo (Carta di Nizza, CEDU).
Fra questi, il Gruppo di esperti ne ha individuati 4, qualificandoli come IMPERATIVI ETICI da applicare nel contesto dei sistemi AI:

  1. Rispetto per la autonomia dell’uomo: l’essere umano che interagisce con i sistemi AI deve essere messo nelle condizioni di mantenere una piena ed effettiva autodeterminazione, cioè di scegliere in piena autonomia e indipendenza.
  2. Prevenzione dei danni: i sistemi di AI non devono aumentare le assimetrie di potere e di informazione (già esistenti) fra categorie in conflitto di interessi (datore di lavoro e dipendenti; imprenditori e consumatori; stato e cittadini), né tantomeno devono produrre un qualche impatto negativo sull’uomo; è importante che tutelino la dignità umana e l’integrità mentale e fisica dell’uomo.
  3. Il principio di equità: nella sua dimensione sostanziale, il principio in oggetto promuove l’equa distribuzione di costi-benefici e di opportunità (in termini di accesso all’educazione, a beni, servizi e tecnologia); tutela la nostra libertà fino al punto di proteggerla da eventuali pregiudizi e discrimazioni; nella sua dimensione procedurale, invece, garantisce la trasparenza dei processi decisionali e identifica l’entità giuridicamente responsabile, affinchè l’uomo sia in grado di contestare le decisioni prese dai sistemi AI e, in ipotesi, di ottenere un effettivo risarcimento.
  4. Il principio di esplicabilità: si collega a quello precedente: i sistemi AI devono essere esplicabili, vale a dire intellegibili agli utilizzatori finali, oltre ad essere verificabili. Questo implica: procedure e processi comprensibili; funzioni e finalità dei sistemi accessibili e chiari. In buona sostanza gli algoritmi che governano tali sistemi devono essere tracciabili e “auditabili”, cioè capaci di tenere traccia delle azioni operative e delle decisioni prese, per rendere conto del loro operato a terzi e poter giustificare le scelte compiute.

4. POSSIBILI CONFLITTI E SCENARI FUTURI.

Tra questi principi possono sorgere confilitti: la sfida futura sarà quella di trovare una procedura trasparente per la risoluzione di possibili controversie.
In vari settori applicativi, ad esempio, possono nascere tensioni fra il principio di prevenzione dei danni e quello del rispetto per l’autonomia dell’uomo; si pensi all’uso di sistemi di AI per il c.d. “controllo predittivo” (predictive policing”), che in futuro verranno impiegati per combattere e – si spera – ridurre gli episodi di criminalità, con l’utilizzo però di strumenti di sorveglianza che per ovvi motivi incideranno sulla nostra libertà e privacy.

Ad ogni modo il tema etico non è più rinviabile; il lavoro encomiabile delle istutuzioni comunitari deve condurre, in tempi brevi, a soluzioni comuni per tutelare i soggetti e gruppi più vulnerabili, che potrebbero subire gravi pregiudizi dall’introduzione su larga scala di sistemi AI in assoluto contrasto con i principi etici riconosciuti dai Paesi UE.
L’etica avrà inoltre un ruolo decisivo nel conseguimento di uno dei principali obiettivi che la Commissione si è prefissata all’inizio del percorso: quello di creare una società equa basata su sistemi Ai legittimi, etici e solidi sotto il profilo tecnico.

Solo l’etica può aiutarci a capire cosa dovremmo fare con la tecnologia e non soltanto cosa attualmente possiamo fare.