L’intelligenza artificiale è ormai largamente utilizzata, in svariati ambiti, purtroppo anche per scopi illegali o che minacciano la sicurezza degli utenti. Non è quindi uno shock apprendere che i criminali informatici organizzati stanno iniziando a utilizzare strumenti e servizi di AI generativa per i loro attacchi. Recentemente, Microsoft e OpenAI hanno condiviso nuove informazioni relative al modo in cui gli hacker sfruttino modelli linguistici di grandi dimensioni per i loro scopi. In un post sul proprio blog, l’azienda di Redmond ha mostrato i risultati di una nuova ricerca sul tema sicurezza e intelligenza artificiale. Questa Include informazioni su alcuni gruppi specifici di hacker. Questi hanno sede in paesi come Russia, Corea del Nord, Iran e Cina. Uno di questi si chiama Forest Blizzard ed è collegato all'unità GRU russa 26165. Microsoft afferma che il gruppo è stato attivo nel prendere di mira organizzazioni legate alla guerra in Ucraina.
Microsoft: AI usata per manipolazione di file o per cercare errori di codifica
Microsoft afferma che Forest Blizzard ha utilizzato gli LLM “per comprendere i protocolli di comunicazione satellitare, le tecnologie di imaging radar e parametri tecnici specifici". Lo studio aggiunge che questo gruppo ha cercato di automatizzare attività come la selezione e la manipolazione dei file anche con i LLM. Un altro gruppo di cybercriminali che avrebbe utilizzato l’AI per le proprie attività è Salmon Typhoon. Il gruppo con sede in Cina ha una storia di attacchi al governo e agli appaltatori della difesa statunitense. Secondo Microsoft, Salmon Typhoon ha utilizzato i LLM in vari modi. Questi includono la ricerca di errori di codifica e la traduzione di documenti tecnici informatici.
Microsoft afferma che continuerà a collaborare con OpenAI per ricercare gruppi hacker che sfruttano intelligenza artificiale per attaccare gli utenti. Come riporta l’azienda di Redmond: “nell’ambito di questo impegno, abbiamo adottato misure per interrompere risorse e account associati agli autori delle minacce, migliorare la protezione della tecnologia OpenAI LLM e degli utenti da attacchi o abusi e modellare i guardrail e i meccanismi di sicurezza attorno ai nostri modelli.” Microsoft ha infine aggiunto che utilizzerà il proprio servizio Copilot for Security per individuare queste minacce informatiche basate su LLM.