di Vanessa Orani, AI project manager, Aitek S.p.A.
Da quando l’Intelligenza Artificiale ha cominciato la sua ascesa ricoprendo un ruolo predominante in ogni aspetto della vita quotidiana dell’uomo, le istituzioni hanno deciso di investire e orientare il mercato europeo alla creazione di sistemi che si sfruttino l’IA in modo etico e affidabile. Secondo gli orientamenti forniti dall’UE, un AI affidabile dovrebbe essere:
- lecita, rispettosa di tutte le disposizioni legislative e regolamentari applicabili;
- etica, rispettosa dei principi e dei valori etici;
- robusta da un punto di vista puramente tecnico, tenendo conto dell’ambiente sociale di dove viene applicata.
In particolare, quando si parla di AI etica e affidabile, il riferimento è all’Assessment List for Trustworthy AI (ALTAI), sviluppato da un gruppo di esperti di alto livello sull’intelligenza artificiale istituito dalla Commissione europea che ha lo scopo di dare delle linee guida a coloro che intendono sviluppare sistemi di AI. L’ALTAI è quindi un metodo di valutazione per i sistemi di AI che vengono sviluppati, distribuiti, acquistati o utilizzati secondo le sette linee guida etiche per l’AI affidabile:
- Human Agency and Oversight: i sistemi di AI devono essere uno strumento a servizio degli esseri umani. Al tempo stesso, devono essere garantiti adeguati meccanismi di supervisione umana dell’AI, con ad esempio approcci “human-in-the-loop” o “human-on-the-loop”.
- Robustezza tecnica e sicurezza: i sistemi di AI devono essere resilienti e sicuri. Devono garantire backup in caso di problemi e generare degli output che risultino affidabili e riproducibili.
- Riservatezza e governance dei dati: i sistemi di AI devono garantire la privacy e proteggere i dati degli utenti utilizzatori, per questo devono essere garantiti adeguati meccanismi di governance dei dati.
- Trasparenza: i modelli di AI dovrebbero essere il più trasparenti possibile. Gli esseri umani devono essere consapevoli di interagire con un sistema di AI e devono essere istruiti sulle capacità e le limitazioni del sistema.
- Diversità, non discriminazione ed equità: occorre evitare distorsioni inique, il sistema di AI non deve in alcun modo contribuire all’emarginazione dei gruppi vulnerabili e all’inasprimento dei pregiudizi e delle discriminazioni. L’equità come tema cardine, deve essere integrata all’interno del sistema di AI fin dalla scelta dei dati per l’addestramento del modello.
- Benessere sociale e ambientale: i sistemi di AI devono essere uno strumento al servizio dell’uomo, comprese le generazioni future. Il sistema di AI deve essere integrato con l’ambiente circostante, andando a considerare l’impatto sociale che l’inserimento della nuova tecnologia induce.
- Responsabilità: dovrebbero essere previsti meccanismi che garantiscano la responsabilità e l’accountability dei sistemi di AI e dei loro risultati.
Tramite queste linee guida, l’ALTAI mira a fornire un processo di autovalutazione dei propri sistemi di AI, aumentando la consapevolezza del potenziale impatto dell’IA sulla società e l’ambiente, promuovendo uno sviluppo etico e responsabile delle soluzioni di AI, che va oltre la giustificazione dello scopo finale della soluzione o lo studio delle prestazioni, andando a delineare delle linee guida su COME il sistema deve essere progettato, addestrato, sviluppato e, infine, messo in esercizio. Infatti, l’uso etico dell’AI si concentra sulle implicazioni etiche e sulle considerazioni morali associate allo sviluppo, alla diffusione e all’uso dei sistemi di AI.
Il suo compito principale è quello di determinare come l’AI possa contribuire o ostacolare la buona vita degli individui, ad esempio in termini di qualità della vita o di diritto all’autodeterminazione e alla libertà in una società democratica. Le questioni di etica dell’AI sono questioni comuni di etica della tecnologia, ad esempio quando si considera cosa e per chi è necessaria la tecnologia, chi la usa, a che costo e a chi viene sviluppata, come vengono condivisi i benefici e i danni e come la distribuzione può essere fatta in modo equo.
Tuttavia, la principale differenza tra tecnologie tradizionali e i sistemi di AI è che le prime operano sulla base di istruzioni pre-programmate, mentre i sistemi di IA possono apprendere e adattarsi dai dati e dall’esperienza e migliorare le loro prestazioni nel tempo senza bisogno di una riprogrammazione umana. Questa capacità di apprendimento automatico consente all’AI di prendere decisioni autonome basate sui dati. L’autonomia dell’IA le consente di eseguire compiti in tempo reale con un intervento umano minimo. A differenza delle tecnologie tradizionali, che possono essere specializzate e meno versatili, la scalabilità e la versatilità dell’IA ne consentono l’applicazione in diversi ambiti, dall’industria ai trasporti etc.
Data questa capacità unica che i sistemi di AI presentano, è importante che essi vengano monitorati in ogni fase del proprio ciclo vitale studiando aspetti di sicurezza, robustezza, etica, privacy e spiegabilità, pilastri fondamentali che contribuiscono alla creazione di un AI che sia degna di fiducia, in una parola, “trustworthy”.
La spiegabilità è una delle sfide più importanti nella ricerca sull’AI, poiché molti modelli – specialmente le reti neurali profonde (Deep Learning) – sono considerati “black box”, ovvero modelli il cui processo decisionale non è immediatamente interpretabile dall’essere umano. Per affrontare questo problema, la ricerca sulla spiegabilità e l’etica dell’AI si muove in tre direzioni principali:
- Dati di addestramento: contengono bias? Sono rappresentativi di diversi gruppi sociali? Possono generare discriminazioni?
- Feature e variabili di input: esistono correlazioni fuorvianti nei dati che potrebbero essere scambiate per causalità dal sistema? Quali aspetti della società stiamo insegnando all’IA e potrebbero risultare problematici nel futuro?
- Modello di IA: qual è il processo logico che la rete neurale segue per arrivare a un determinato output? Possiamo rilevare eventuali errori nel ragionamento?
Questi aspetti il team di ricerca finanziata di Aitek li sta studiando in simbiosi con importanti centri di ricerca a livello europeo, quali il CNR e l’università di Siviglia.
Inoltre, in Aitek, la tutela della privacy e della sicurezza, intesa sia come safety che come cybersecurity, è un principio cardine integrato in tutti i prodotti in commercio. A questi aspetti si affianca la ricerca sull’etica e sull’analisi del rischio legata alla safety, un’area in cui il team di Ricerca finanziata si sta specializzando. Safety ed etica sono due concetti profondamente interconnessi nei sistemi di AI che coinvolgono la collaborazione tra uomo e macchina, sottolineando l’importanza di soluzioni affidabili (trustworthy). Nell’analisi del rischio tradizionale, si considerano tre fattori chiave:
- Esposizione: la probabilità che determinate condizioni portino a un incidente.
- Severità: l’entità delle conseguenze fisiche per le persone coinvolte.
- Controllabilità: la capacità dell’utente di intervenire per prevenire l’incidente.
Questi aspetti sono fondamentali per i sistemi cyber-fisici in cui è richiesta l’interazione con l’essere umano. Tuttavia, nei sistemi di AI il problema si amplifica perché questi non vengono utilizzati solo da esperti o operatori formati, ma anche da un pubblico più ampio con una conoscenza limitata della tecnologia. Questo introduce un forte fattore umano, che deve essere considerato anche nell’analisi del rischio tramite l’etica. Di conseguenza, l’analisi del rischio nei sistemi di AI non può limitarsi a una valutazione oggettiva dei pericoli e delle misure di mitigazione, ma deve anche tenere conto delle reazioni umane a determinate dinamiche, che possono influire sulla sicurezza stessa. Questo approccio, definito “ethical safety”, è in linea con le direttive dell’AI Act, che classifica la pericolosità dei sistemi di AI in base al loro scopo finale e alle modalità d’uso da parte degli utenti.
In un panorama in cui l’AI assume un ruolo sempre più centrale nella società, questi aspetti devono essere considerati con attenzione per garantire che la tecnologia rimanga uno strumento al servizio dell’uomo e non un fattore di rischio.