Usiamo i cookie per migliorare la tua esperienza di fruizione

Cliccando su qualsiasi link in questa pagina fornisci il tuo consenso all'uso dei cookie

Italian Chinese (Simplified) English French German Japanese Spanish
Martedì, 26 Settembre 2023
Chat GPT, OPEN AI e le considerazioni sulla sicurezza informatica e su quella per l’individuo - AIIC (Associazione Italiana esperti in Infrastrutture critiche)

Chat GPT, OPEN AI e le considerazioni sulla sicurezza informatica e su quella per l’individuo - AIIC (Associazione Italiana esperti in Infrastrutture critiche)

MAGGIO 2023

Da qualche tempo tutti sono alle prese con gli interrogatori ai sistemi di OPEN AI specialmente quello noto con il nome di CHAT GPT. Se sia per simulare un test di Turing o se sia per sentirsi parte della folta comunità che si fa una propria opinione su questi strumenti, nessuno sembra resistere al fascino di “chattare” con un algoritmo per verificarne le capacità, per testarne la prontezza e la qualità delle risposte, per cercare di provare che così intelligente non è, o per svago, curiosità, per capire come funzioni, sentirsi parte dell’ultimo trend...
Ma di cosa si tratta davvero e che implicazioni di sicurezza potrebbero esserci nell’uso di un algoritmo di Chat GPT? La domanda non ha molto senso se non ci chiediamo prima “sicuro rispetto a cosa e rispetto a quale ambito di applicazione?” Andiamo con ordine. Per iniziare è bene chiarire che Chat GPT è definito dall’organizzazione OPEN AI che l’ha concretizzato, come un modello che interagisce in modo conversazionale. Il formato del dialogo
abilita l’algoritmo nella risposta a domande, contestare premesse errate e rifiutare richieste inappropriate o ammettere i propri errori, ma è anche capace di fornire una risposta dettagliata ad una istruzione fornita da “Prompt dei comando”. L’organizzazione no profit che ha generato questo modello di Intelligenza Artificiale si chiama OpenAI ed è un laboratorio di ricerca americano sull'intelligenza artificiale (AI o IA) costituito nel 2015 dalla OpenAI Incorporated (OpenAI Inc.) senza scopo di lucro e dalla sua società controllata che invece è a scopo di lucro, OpenAI Limited Partnership (OpenAI LP).
Dalla sua fondazione OpenAI conduce ricerche sull'IA con l'intenzione dichiarata di promuovere e sviluppare un'AI amichevole. I sistemi OpenAI girano sul quinto supercomputer più potente al mondo. (Fonte sito Open AI). I diversi progetti in cui sono adottati algoritmi di intelligenza artificiale spaziano dalle capacità di dialogo (Chat GPT), alla produzione di immagini a partire da descrizioni in linguaggio naturale (progetto DALL E2), dalla produzione di codice a partire dal linguaggio naturale (Open AI Codex) alla produzione di musica e canto (livello rudimentale (Progetto Jukebox).
In relazione alla domanda sulla sicurezza, posta poche righe fa, vale la pena segnalare come nel 2018 gli stessi ricercatori di OpenAI si siano posti il problema di come una AI potesse essere usata in modo malevolo (Malicious use of AI n.d.r.), al fine di poter porre rimedio a questa eventualità. Per loro stessa ammissione e preoccupazione di un uso duale di questa tecnologia, dichiararono apertamente l’ovvia verità tautologica applicabile ad ogni tecnologia: “l'intelligenza artificiale è una tecnologia capace di applicazioni immensamente positive e immensamente negative” (fu vero per la dinamite e per la scissione dell’atomo per citare due esempi noti a tutti n.d.r.). La buona notizia è che i ricercatori fin dal 2018 hanno voluto ispirarsi ai principi della Cybersecurity (perlomeno nelle loro dichiarazioni n.d.r.) segnalando come l’utilizzo di pratiche di “red teaming” per sovvertire i sistemi, di previsione delle minacce prima che si manifestino e di scoperta di vulnerabilità nei sistemi di AI, li abbiano guidati rispettivamente per intervenire nella difesa e nel patching. Ma purtroppo oggi non abbiamo strumenti per valutare se quelle azioni di “fortificazione” abbiano funzionato completamente o solo parzialmente e temporaneamente. L’esperienza ci insegna purtroppo che il codice digitale è “sicuro” e “al sicuro” solo fino a quando non si manifesta un soggetto capace di produrre un attacco con successo su quel codice.
La brutta notizia è che una risposta definitiva all’uso malevolo delle AI non è stata data nemmeno da OpenAI, che anzi segnala casistiche di esempio, sulle quali è disposta a ragionare con la community tecnologica e politica, ma sulle quali non è in grado di agire da sola: reti neurali e tecniche di "fuzzing" usate per creare virus informatici con capacità di generazione automatica di exploit, attori malintenzionati capaci di violare un robot delle pulizie in modo che consegni un carico utile di esplosivi a un soggetto target, o come Stati canaglia che utilizzano sistemi di sorveglianza potenziati dall'AI per arrestare preventivamente le persone che si adattano a un profilo di rischio predittivo.... e così via.
Quindi il problema è lungi dall’essere risolto perlomeno da OpenAI. Ma fortunatamente la community scientifica è ampia come è ampia la community dedicata alla sicurezza. In particolare il gruppo di standardizzazione ETSI dedicato alla sicurezza dell’intelligenza artificiale (Industry Specification Group – Securing Artificial Intelligence) ha rilasciato uno specifico paper sulla sicurezza dell’IA già nel 2021: “Securing Artificial Intelligence (SAI)” . più di recente è l’intervento normativo della UE ad aver segnato il passo dell’uso sicuro delle AI. Infatti l’Artificial Intelligence ACT, mira proprio a bilanciare l’uso delle AI fra i “benefici socio-economici dell'IA e i rischi o le conseguenze negative per gli individui o la società.... e per delineare un approccio europeo sulle implicazioni umane ed etiche dell'IA.” Nel documento si legge che l’impostazione della proposta “stabilisce norme armonizzate per lo sviluppo, l'immissione sul mercato e l'uso dei sistemi di IA nell'Unione secondo un approccio proporzionato basato sul rischio. Propone un'unica definizione di IA a prova di futuro. Alcune pratiche di IA particolarmente dannose sono vietate in quanto contrarie ai valori dell'Unione, mentre sono proposte restrizioni e salvaguardie specifiche in relazione a determinati usi di sistemi di identificazione biometrica remota a fini di contrasto. La proposta stabilisce una solida metodologia di rischio per definire i sistemi di IA "ad alto rischio" che comportano rischi significativi per la salute e la sicurezza o per i diritti fondamentali delle persone. Tali sistemi di IA dovranno rispettare una serie di requisiti orizzontali obbligatori per un'IA affidabile e seguire le procedure di valutazione della conformità prima che tali sistemi possano essere immessi sul mercato dell'Unione”.
Parallelamente alle norme e regole la ricerca non si è fermata e si va affermando l’AI Trust, Risk and Security Management (AI Trism), un’area di ricerca che cerca di garantire che i sistemi di Intelligenza artificiale siano sicuri e affidabili e che i rischi associati al loro utilizzo siano ridotti al minimo. (Per approfondire si veda la pagina Gartner dedicata al tema).
Tutto risolto quindi fra norme e ambiti di ricerca? Ovviamente no, perché il resto sta a noi. Come esseri umani “senzienti” abbiamo il diritto/dovere di sapere, per imparare a dubitare e a capire quando e come affidarci o meno ad una tecnologia, non perché decida per noi, ma perché ci supporti nelle decisioni da prendere, non per arrenderci ad essa, ma per vivere meglio grazie ad essa. D’altra parte, il progresso tecnologico ci ha permesso di evolvere dalla primitiva “clava”, ma è sempre la nostra mano che deve effettuare la prima mossa, e che sia un gesto di polso per muovere la clava o che sia un “click”, dovrebbe sempre essere un gesto pienamente consapevole e responsabil.

Alessia Valentini

(Newletter AIIC n. 05 (2023))