Usiamo i cookie per migliorare la tua esperienza di fruizione

Cliccando su qualsiasi link in questa pagina fornisci il tuo consenso all'uso dei cookie

Stampa questa pagina
Le due facce dell’intelligenza artificiale per la cyber security - AIIC (Associazione Italiana esperti in Infrastrutture critiche)

Le due facce dell’intelligenza artificiale per la cyber security - AIIC (Associazione Italiana esperti in Infrastrutture critiche)

MARZO 2021

Quando usiamo la definizione dual-use intendiamo una tecnologia che può soddisfare due obiettivi, in genere disgiunti fra loro, talvolta contendenti. Un caso emblematico è la tecnologia nucleare, che può essere usata per produrre energia o per costruire testate esplosive.
Un esempio di obiettivi contendenti in una tecnologia dual-use è rappresentato invece dall’intelligenza artificiale, dove determinati elementi tecnologici possono essere usati sia per attaccare, sia per difendere. Compito dei responsabili dei sistemi informativi e in particolare della sicurezza cibernetica è quello di comprendere quali sono le minacce che gli algoritmi di intelligenza artificiale possono rendere più rischiose, e quali invece le difese che l’AI aiuta a potenziare e in che modo. Chi opera all’interno di siti industriali e infrastrutture critiche, come può intuire il lettore, è esposto a tutta una serie di complicazioni in più che andremo a vedere sommariamente più avanti.
Inquadrare l’intelligenza artificiale non è facile, chi vi dice che ha una definizione pronta e inattaccabile non racconta il vero, oppure ne sa meno di quanto voglia farvi credere. Gli stessi esperti di AI dibattono da anni su quale sia la definizione migliore, con tentativi anche illustri di arrivare a una determinazione conclusiva. Il punto è che l’intelligenza artificiale è sfuggente poiché eredita l’elusività del concetto stesso di intelligenza, mai confinato in una definizione unanime, assieme alla riluttanza dell’assegnare tale caratteristica a un oggetto inanimato o – peggio ancora – a un software. Per questo motivo faremo un servizio alla praticità se d’ora innanzi ci dimenticheremo del termine quasi mistico “intelligenza artificiale” e discuteremo solo della tecnologia che più ci interessa in questo contesto: il machine learning.
L’apprendimento mediante sequenze di dati non è certo una novità (la rete neurale “SNARC” di Minsky ed Edmonds è del 1951), ma alcuni passi avanti tecnologici negli ultimi anni hanno aumentato di molto l’efficacia dei modelli basati in special modo su reti neurali, che tramite addestramento e inferenza sono in grado di trovare relazioni fra dati che prima erano inaccessibili. Avremo quindi un modello di deep learning addestrato per analizzare un perimetro di difesa e trovare i punti di attacco con maggiori probabilità di successo, e dall’altra parte un altro modello di deep learning addestrato per riconoscere il traffico di rete anomalo e provvedere non appena le probabilità che vi sia un attacco in corso superano una certa soglia di guardia.
Sì, perché il machine learning – di cui il deep learning non è altro che una sotto-categoria – non vive di assoluti, bensì opera sempre in termini di probabilità. Ovviamente una probabilità del 99,95% è per noi è quasi una certezza, ma per la rete neurale i pesi possono cambiare a ogni nuova iterazione del calcolo. Il modello varia e si aggiorna in continuazione (quel “learning” che fa parte del nome) per cercare di migliorare le probabilità di arrivare all’obiettivo prefissato, che sia penetrare un network o proteggere un network.
Ed è qui che si insinua la complicazione a cui accennavamo prima. Per potersi aggiornare un modello di difesa ha bisogno di connessioni e collegamenti continui, e se non continui perlomeno frequenti. In reti dove vi è un rilevante numero di nodi air-gapped, come nelle industrie e nelle infrastrutture critiche, i modelli di machine learning hanno meno informazioni da analizzare. Se il modello deputato a compiti di intrusion detection non vede le operazioni svolte da una macchina in air-gap, scollegata da tutto e da tutti, avrà meno probabilità di capire se tale macchina sia stata in qualche modo compromessa. Inoltre, nel caso in cui un modello di machine learning fosse installato sulle macchine scollegate con un’installazione cosiddetta edge, avrà comunque necessità di collegarsi a intervalli regolari per aggiornare i suoi parametri e informare eventualmente gli altri modelli delle inferenze fin qui derivate.
L’uso delle tecnologie di intelligenza artificiale – e qui il termine si riaffaccia perché comprende anche tecniche simboliche – per la security industriale è dunque un dibattito aperto all’interno del più ampio tema della protezione delle infrastrutture critiche. Anche per questo motivo la Commissione Europea, per mezzo del Joint Research Centre e dell’European Reference Network for Critical Infrastructure Protection (ERNCIP) sta svolgendo uno studio sulla protezione delle infrastrutture critiche attraverso sensori intelligenti e droni. In questo caso parliamo di protezione fisica, attuata però con dispositivi altamente tecnologici.
All’interno di questo studio si è reso necessario interrogare gli operatori di infrastrutture critiche in tutta Europa per comprendere quali siano oggi le tecnologie usate, e quali quelle che l’operatore avrebbe interesse a usare in futuro.
Il gruppo ha reso disponibile un questionario presso il seguente sito:
https://ec.europa.eu/eusurvey/runner/ERNCIP-EWZ-2021
Oppure, se avete necessità di trascriverlo, vi è un link più breve:
https://cyb.to/studio2021
Tale questionario è un modo per entrare in contatto con il progetto della Commissione Europea e fornire informazioni rilevanti che saranno elaborate in uno studio indirizzato ai decisori politici europei.
Il sondaggio sarà aperto solo fino al 28 febbraio 2021 ed è stato pensato per non essere oltremodo lungo e tedioso. La preghiera ovviamente, rivolta a tutti coloro che lavorano all’interno di un operatore di infrastruttura critica, è di compilare il questionario entro il mese di febbraio.

(Newletter AIIC n. 02 (2021))