Microsoft e OpenAI hanno rilevato che gli hacker stanno già utilizzando chatbot come ChatGPT per affinare e migliorare i loro attacchi informatici. In una ricerca appena pubblicata, i due colossi hanno individuato tentativi di gruppi supportati da Russia, Corea del Nord, Iran e Cina che utilizzano strumenti come ChatGPT per studiare obiettivi, migliorare script e aiutare a sviluppare tecniche di ingegneria sociale.
“Gruppi di cybercriminali, attori di minacce statali e altri hacker stanno esplorando e testando diverse tecnologie di intelligenza artificiale man mano che emergono, nel tentativo di comprendere il loro potenziale valore per le loro operazioni e i controlli di sicurezza che potrebbero dover aggirare”, dichiara Microsoft in un post di oggi sul proprio blog ufficiale.
Il gruppo Strontium, collegato all’intelligence militare russa, è stato individuato nell’utilizzo dei LLM per “comprendere i protocolli di comunicazione satellitare, le tecnologie di imaging radar e i parametri tecnici specifici”. Il gruppo di hacker, noto anche come APT28 o Fancy Bear, è stato attivo durante la guerra tra Russia e Ucraina ed è stato coinvolto nell’attentare la campagna presidenziale di Hillary Clinton nel 2016.
Il gruppo ha anche utilizzato i chatbot per aiutare nelle “attività di scripting di base, inclusa la manipolazione di file, la selezione di dati, le espressioni regolari e la multiprocessazione, per automatizzare o ottimizzare potenzialmente le operazioni tecniche”, sempre stando alle dichiarazioni Microsoft.
Inoltre, un gruppo di hacker nordcoreani, noto come Thallium, pare abbia utilizzato gli LLM per studiare vulnerabilità segnalate pubblicamente e prendere di mira organizzazioni, per aiutare nelle attività di scripting di base e per redigere contenuti per campagne di phishing.
Microsoft afferma anche che il gruppo iraniano noto come Curium ha utilizzato i modelli LLM per generare e-mail di phishing e persino codice per evitare la rilevazione da parte delle applicazioni antivirus. Anche gli hacker cinesi affiliati allo Stato avrebbero utilizzano LLM per la ricerca, lo scripting, le traduzioni e per perfezionare i loro strumenti esistenti.
Microsoft e OpenAI non hanno ancora rilevato “attacchi significativi” che utilizzano LLM, ma le aziende hanno chiuso tutti gli account e gli asset associati a questi gruppi di hacker.
Sebbene l’uso dell’AI negli attacchi informatici sembri essere limitato al momento, Microsoft avverte dei futuri casi d’uso come l’impersonificazione vocale:
La frode potenziata dall’AI è un’altra preoccupazione critica. La sintesi vocale ne è un esempio, in cui un campione vocale di tre secondi può addestrare un modello a sembrare chiunque. Anche qualcosa di innocuo come il tuo saluto nella segreteria telefonica può essere utilizzato per ottenere un campionamento sufficiente
Naturalmente, la soluzione di Microsoft consiste nell’utilizzare l’AI per rispondere agli attacchi AI:
L’IA può aiutare gli aggressori a rendere i loro attacchi più sofisticati. Abbiamo visto ciò con oltre 300 attori seguiti da Microsoft, e utilizziamo l’AI per proteggere, rilevare e rispondere
Microsoft sta sviluppando un Security Copilot, un nuovo assistente AI progettato per i professionisti della cybersecurity per individuare le violazioni e comprendere meglio l’immensa quantità di segnali e dati generati giornalmente attraverso gli strumenti di sicurezza informatica.