Usiamo i cookie per migliorare la tua esperienza di fruizione

Cliccando su qualsiasi link in questa pagina fornisci il tuo consenso all'uso dei cookie

Italian Chinese (Simplified) English French German Japanese Spanish
Giovedì, 24 Aprile 2025
Safety, Cybersecurity delle AI: la standardizzazione come “chiave di volta” - AIIC (Associazione Italiana esperti in Infrastrutture critiche)

Safety, Cybersecurity delle AI: la standardizzazione come “chiave di volta” - AIIC (Associazione Italiana esperti in Infrastrutture critiche)

LUGLIO 2023

Nella newsletter di maggio 2023 abbiamo già iniziato a ragionare insieme di AI e delle implicazioni sulla sicurezza degli individui o dei rischi di un uso malevolo. La proposta di legge di AI Act europeo è stato un primo passo proprio in questa direzione e rappresenta di fatto la prima legge sull'intelligenza artificiale da parte di un organismo regolatore di rilievo. La legge assegna le applicazioni dell'AI a tre categorie di rischio: la prima è costituita dalle applicazioni e dai sistemi che creano un rischio inaccettabile: ne sono esempi la manipolazione cognitivo-comportamentale di persone o specifici gruppi vulnerabili quali giocattoli ad attivazione vocale che incoraggiano comportamenti pericolosi nei bambini; oppure il punteggio sociale di matrice cinese che classifica le persone in base al comportamento, allo stato socio-economico o alle caratteristiche personali; o anche i sistemi di identificazione biometrica remota e in tempo reale, come il riconoscimento facciale. Il secondo livello è costituito dalle applicazioni ad alto rischio che devono essere soggette a requisiti legali specifici. I sistemi di AI che incidono negativamente sulla sicurezza o sui diritti fondamentali considerati ad alto rischio sono suddivisi in due categorie: i Sistemi di intelligenza artificiale utilizzati nei prodotti che rientrano nella legislazione dell'UE sulla sicurezza dei prodotti (include giocattoli, aviazione, automobili, dispositivi medici e ascensori); i sistemi di AI che rientrano in otto aree specifiche che dovranno essere registrate in una banca dati dell'UE: identificazione biometrica e categorizzazione delle persone fisiche; gestione e funzionamento delle infrastrutture critiche; istruzione e formazione professionale; occupazione, gestione dei lavoratori e accesso al lavoro autonomo; accesso e fruizione dei servizi privati essenziali e dei servizi e benefici pubblici; applicazione della legge; migrazione, asilo e gestione dei controlli alle frontiere; assistenza nell'interpretazione giuridica e nell'applicazione della legge.
Infine, ci sono le applicazioni non esplicitamente vietate perché non considerate ad alto rischio che quindi, in gran parte, sono lasciate non regolamentate.
Per i requisiti di trasparenza invece, l'AI generativa, (es. CHAT GPT), dovrebbe rispettare i requisiti di trasparenza: rivelare che il contenuto è stato generato dall'intelligenza artificiale, progettare il modello per evitare che generi contenuti illegali, pubblicare riepiloghi di dati protetti da copyright utilizzati per la formazione.
Per sostenere la decisione dei parlamentari europei sul testo in fase di proposta, l’ENISA (European Union Agency for Cybersecurity), Agenzia per la Sicurezza Europea, ha pubblicato nel marzo di quest’anno un documento dal titolo “Cybersecurity of AI e Standardizzazione”, che fornisce una panoramica degli standard esistenti, in fase di elaborazione, in esame e pianificati, relativi alla sicurezza informatica dell'intelligenza artificiale (AI), per valutarne la copertura e identificare le lacune nella standardizzazione. Per farlo il documento considera le specificità dell'AI come ad esempio l’apprendimento automatico, coniugando sia la visione della sicurezza informatica ricompresa nel paradigma "tradizionale" di riservatezza-integrità-disponibilità, sia il concetto più ampio di affidabilità dell'AI. Infine, la relazione esamina in che modo la normazione può sostenere l'attuazione degli aspetti
di cybersicurezza (questi stessi criteri sono incorporati nella proposta di regolamento dell'UE dell’ AI Act - COM 2021- 206 final, n.d.r. ). Le conclusioni dello studio di ricerca e analisi hanno permesso di suggerire che gli standard generali per la sicurezza delle informazioni e la gestione della qualità (in particolare ISO/IEC 27001, ISO/IEC 27002 e ISO/IEC 9001) possono mitigare parzialmente i rischi di sicurezza informatica legati alla
riservatezza, all'integrità e alla disponibilità dei sistemi di AI. Questa conclusione è basata sul presupposto che l'AI sia nella sua essenza software, e quindi ciò che è applicabile al software può essere applicato all'AI, se viene fornita una guida adeguata. Sebbene sia una generica raccomandazione, l’ENISA raccomanda un’integrazione basata su un'analisi specifica del sistema rispetto al dominio di applicazione (ad esempio basandosi su ISO/IEC 15408-1:2009).
Tuttavia, è ancora oggetto di dibattito fino a che punto la valutazione della conformità ai requisiti di sicurezza risultanti, possa basarsi su standard orizzontali specifici dell'AI e in che misura possa basarsi su standard verticali/settoriali specifici. Poiché la sicurezza informatica è trasversale a una serie di requisiti di affidabilità (ad esempio governance dei dati, trasparenza), è importante che le attività di standardizzazione relative a questi requisiti trattino la sicurezza informatica in modo coerente. Attualmente sono stati evidenziati dei gap di standardizzazione:
1. la tracciabilità dei dati e dei componenti dell'intelligenza artificiale durante il loro ciclo di vita resta un problema che attraversa la maggior parte delle minacce e rimane in gran parte irrisolto nella pratica;
2. le caratteristiche intrinseche del Machine learning non sono pienamente riflesse negli standard esistenti, soprattutto in termini di metriche e procedure di test;
3. in alcuni settori le tecnologie correlate sono ancora in fase di sviluppo e non sono ancora abbastanza mature per essere standardizzate (ovvero gli standard esistenti non possono essere adattati o i nuovi standard non possono ancora essere completamente definiti).
Per la messa in pratica della proposta di legge sull’AI act invece l’ENISA ha individuato che ad oggi non esistono norme che coprano adeguatamente la sicurezza informatica e descrivano le competenze delle organizzazioni per l'audit, la certificazione e il collaudo dei sistemi di AI (e dei sistemi di gestione dell'AI) e dei loro valutatori; tale lacuna nei settori oggetto di ricerca e sviluppo è rilevante per l'attuazione del progetto di legge sull'AI, in particolare per quanto riguarda le casistiche di dati alterati (poisoning data) e le applicazioni poste in essere dai criminali digitali.
Il testo dell’ENISA fornisce precise raccomandazioni finali su ogni fronte dei gap evidenziati e auspica un comune sforzo di continua analisi delle tecnologie in favore della standardizzazione come mezzo di supporto alla sicurezza informatica e un parallelo impegno per le valutazioni di conformità come guida della componente legislativa regolatoria.
Il 14 giugno 2023, i deputati hanno adottato una posizione negoziale del Parlamento sulla legge sull'AI che mira a garantire l’adozione di AI “sicure e trasparenti”. Ora inizieranno i colloqui con i paesi dell'UE in sede di Consiglio sulla forma finale della legge. I materiali documentali e il documento fornito da ENISA costituiscono una solida base di lavoro.

L'obiettivo è raggiungere un accordo entro la fine di quest'anno.

Alessia Valentini

(Newletter AIIC n. 07 (2023))