Recentemente, due ingegneri informatici, David Zollikofer dell’ETH di Zurigo e Benjamin Zimmerman dell’Università Statale dell’Ohio, hanno condotto un esperimento intrigante e preoccupante con #ChatGPT. Il loro obiettivo era dimostrare come i modelli linguistici di grandi dimensioni (Large Language Models o LLM) possano essere sfruttati dai #malware per diffondersi e sfuggire alla rilevazione.
Utilizzando il #chatbot di #OpenAI, i due studiosi sono riusciti a creare un virus capace di riscrivere autonomamente il proprio codice e di diffondersi tramite e-mail ingannevoli. Una volta introdotto nel computer di una vittima, il virus analizza la rubrica del malcapitato e utilizza ChatGPT per riscrivere parti del proprio codice, modificando elementi logici e semantici. Questo trucco consente al malware di passare inosservato ai controlli antivirus, poiché ogni versione del codice è leggermente diversa dalla precedente.
In una seconda fase, ChatGPT analizza le #e-mail ricevute di recente dalla vittima e genera risposte contestuali che includono il malware come allegato apparentemente innocuo. Ad esempio, se trova un invito a una festa di compleanno, l’IA risponde accettando l’invito e allegando il virus, descritto come una playlist musicale per la festa. Questo approccio contestuale aumenta notevolmente le probabilità che l’utente apra l’allegato, pensando che provenga da un conoscente.
Tuttavia, l’esperimento non è stato privo di difficoltà. Alcune modifiche apportate dall’IA hanno reso il virus inutilizzabile, rendendolo innocuo. Nonostante ciò, Zollikofer e Zimmerman ritengono che, variando alcuni parametri, il malware possa riuscire a replicarsi con successo.
Il test ha previsto l’uso del diffuso programma Outlook per analizzare le e-mail e generare risposte pertinenti. Questo approccio ha mostrato come la capacità di ChatGPT di generare testi umani possa essere sfruttata per rendere i tranelli ancora più insidiosi.
Il lavoro dei due informatici è stato commentato da Alan Woodward, professore presso l’Università del Surrey, che ha espresso preoccupazione per l’uso potenziale dei LLM in attività dannose. Tuttavia, ha anche sottolineato come la stessa tecnologia possa essere utilizzata per prevenire attacchi informatici, migliorando la sicurezza.
Zollikofer ha concordato, affermando che lo scopo dello studio era proprio quello di analizzare come una minaccia possa essere generata, per poi sviluppare contromisure efficaci. Grazie a questo esperimento, è possibile studiare le tecniche impiegate dal chatbot per diffondersi e, allo stesso tempo, facilitare la ricerca di soluzioni che utilizzino i modelli linguistici di grandi dimensioni a fini di sicurezza.
In sintesi, l’esperimento di Zollikofer e Zimmerman ha evidenziato sia i rischi che le opportunità legate all’uso dei LLM come ChatGPT. Mentre esiste il pericolo che questi strumenti vengano sfruttati per scopi malevoli, essi rappresentano anche una potenziale risorsa per migliorare le difese contro le minacce informatiche, dimostrando l’importanza di una continua ricerca e sviluppo nel campo della sicurezza digitale.