Nessun risultato. Prova con un altro termine.
Guide
Notizie
Software
Tutorial

OpenAI: hacker usano ChatGPT per creare malware

Secondo il recente report di OpenAI, gruppi hacker cinesi e iraniani si servirebbero del suo chatbot per migliorare gli attacchi.
OpenAI: hacker usano ChatGPT per creare malware
Secondo il recente report di OpenAI, gruppi hacker cinesi e iraniani si servirebbero del suo chatbot per migliorare gli attacchi.
Link copiato negli appunti

OpenAI ha interrotto oltre 20 operazioni informatiche dannose che sfruttavano ChatGPT per il debug e lo sviluppo di malware. Ciò serviva a diffondere informazioni errate, eludendo il rilevamento e conducendo attacchi di spear-phishing. Il report, che si concentra sulle operazioni dall'inizio dell'anno, costituisce la prima conferma ufficiale che gli strumenti di intelligenza artificiale generativa mainstream vengono utilizzati per migliorare le operazioni informatiche offensive. I primi segnali di tale attività sono stati segnalati da Proofpoint ad aprile. La società di sicurezza sospettava infatti che TA547 (alias "Scully Spider") stesse distribuendo un caricatore PowerShell scritto dall’AI per il loro payload finale, l’info-stealer Rhadamanthys.

Il mese scorso, i ricercatori di HP Wolf hanno riferito che i criminali informatici che prendevano di mira gli utenti francesi stavano utilizzando strumenti di intelligenza artificiale per scrivere script utilizzati come parte di una catena di infezione in più fasi. L'ultimo report di OpenAI conferma l'abuso di ChatGPT. Nel documento, l’azienda ha mostrato casi di attori di minacce cinesi e iraniani che sfruttano il chatbot per migliorare l'efficacia delle loro operazioni.

OpenAI: i gruppi hacker che hanno sfruttato ChatGPT per i loro attacchi

La prima minaccia indicata da OpenAI è "SweetSpecter", gruppo cinese di cyber-spionaggio. OpenAI segnala che SweetSpecter li ha presi di mira direttamente, inviando e-mail di spear phishing con allegati ZIP dannosi mascherati da richieste di supporto agli indirizzi e-mail personali dei dipendenti di OpenAI. Se aperti, gli allegati innescavano una catena di infezioni, portando SugarGh0st RAT a essere rilasciato sul sistema della vittima. Il secondo caso riguarda il gruppo di affiliato al Corpo delle guardie rivoluzionarie islamiche (IRGC) del governo iraniano, 'CyberAv3ngers'. OpenAI segnala che gli account associati a questo gruppo hanno chiesto a ChatGPT di produrre credenziali predefinite in PLC (Programmable Logic Controller). Ha chiesto poi di sviluppare script bash e Python personalizzati, ma anche di offuscare il codice. Gli hacker iraniani hanno utilizzato ChatGPT anche per scoprire come sfruttare vulnerabilità specifiche e scegliere metodi per rubare le password degli utenti sui sistemi macOS.

Il terzo caso evidenziato nel rapporto di OpenAI riguarda Storm-0817, anch'esso composto da attori della minaccia iraniani. Quel gruppo avrebbe utilizzato ChatGPT per eseguire il debug di malware, creare uno scraper di Instagram, tradurre i profili LinkedIn in persiano e sviluppare un malware personalizzato per la piattaforma Android. Il malware creato con l'aiuto di ChatGPT può rubare liste di contatti, registri delle chiamate e file archiviati sul dispositivo. Può anche acquisire screenshot, esaminare la cronologia di navigazione dell'utente e ottenere la sua posizione precisa. Tutti gli account OpenAI utilizzati dagli autori delle minacce di cui sopra sono stati banditi. Inoltre, gli indicatori di compromissione associati, inclusi gli indirizzi IP, sono stati condivisi con i partner di sicurezza informatica.

Ti consigliamo anche