Un nuovo sistema di intelligenza artificiale (AI) basato sull'apprendimento approfondito per rinforzo (Deep Reinforcement Learning) è in grado di reagire agli attacchi in un ambiente simulato e bloccare precocemente il 95% degli attacchi informatici.
Ne sono convinti i ricercatori del Pacific Northwest National Laboratory (PNNL) del Dipartimento dell'Energia degli Stati Uniti:
il successo riscontrato in ambiente semplificato di attacco dimostra che le risposte difensive agli attacchi in tempo reale potrebbero essere gestite da un modello di AI.
È stato costruito a partire da una simulazione di un cyber attacco, durante il quale quattro reti neurali addestrate lavoravano per minimizzare le interruzioni di sistema. ( Photocredit: DoE PNNL)
Le tattiche utilizzate nel corso degli attacchi simulati sono basate sulla classificazione del framework MITRE ATT&CK per passare dalla fase di accesso iniziale e di ricognizione alle fasi di esecuzione e di messa in riprotezione del sistema.
Se vi sembra poco, i loro creatori hanno già la risposta pronta.
Samrat Chatterjee, un data scientist del team che ha presentato a Washington il lavoro del team all’ultima edizione della AAAI conference on Artificial Intelligence ha dichiarato serafico:
“Volevamo prima dimostrare di essere in grado di addestrare con successo un DRL e condividere i primi risultati positivi dei test prima di procedere.”
Sono consci che l'applicazione delle tecniche di apprendimento automatico (ML) e di intelligenza artificiale (AI) in diversi campi della sicurezza informatica sia ormai una tendenza molto diffusa negli ultimi anni.
Dall'integrazione iniziale di ML nei gateway di sicurezza per la posta elettronica nei primi anni 2010 fino al più recente utilizzo di Chat GPT per analizzare il codice o condurre analisi forensi.
La maggior parte dei prodotti di sicurezza ha, o sostiene di avere, funzionalità alimentate da algoritmi di machine learning addestrati su grandi set di dati.
Purtroppo però, un modello capace di difesa proattiva rappresentava più un obiettivo aspirazionale che pratico, almeno fino ad ora.
Il team del PNNL invece prefigura già un AI Defender:
“I nostri test mirano a mettere in evidenza quanto algoritmi DRL privi di modello possano essere efficacemente addestrati con diversi livelli di abilità e persistenza, ottenendo esiti di difesa favorevoli in contesti di attacchi a più livelli.”
Il primo obiettivo del team di ricerca era creare un ambiente di simulazione personalizzato basato su un toolkit open source noto come Open AI Gym.
Partendo da un sistema già compromesso, i ricercatori hanno utilizzato quattro approcci a reti neurali basati sul reinforcement learning, che funziona in maniera molto simile al circuito di ricompensa umano.
Una rete neurale impara ricorrendo continuamente a circuiti di feedback correttivi per migliorare le proprie analisi predittive dei dati.
I data scientist contano su questo. Arrivare al maggior livello di addestramento possibile e poi raccogliere il risultato di anni di lavoro in una manciata di millisecondi.