L’intelligenza artificiale ha portato grandi innovazioni, ma anche nuove minacce in ambito di sicurezza. Un recente studio ha rivelato un lato preoccupante di GPT-4, il modello linguistico avanzato di OpenAI. Si è scoperto che questa tecnologia potrebbe diventare uno strumento nelle mani di criminali informatici per realizzare truffe telefoniche sempre più complesse e ingannevoli.
Grazie alla capacità di GPT-4 di sostenere conversazioni che sembrano autentiche, i truffatori potrebbero utilizzare questo strumento per impersonare figure come impiegati bancari o funzionari governativi. Attraverso questa tecnica, diventa più facile convincere le vittime a condividere informazioni riservate, come dati personali o credenziali per l’accesso ai conti bancari.
Le modalità d’attacco sono varie e in continua evoluzione. Ad esempio, i truffatori potrebbero simulare una chiamata da parte della banca della vittima, avvisandola di un presunto problema sul suo conto e chiedendo la conferma dei dati per risolvere il falso inconveniente. In altre situazioni, GPT-4 potrebbe fingere di essere un operatore dell’assistenza tecnica di un social network, chiedendo all’utente di reimpostare la password per “ragioni di sicurezza”.
Sarà necessario stabilire delle norme che implichino un mancato uso dell'AI per scopi illeciti
Secondo i ricercatori, il tasso di successo di queste truffe è elevato e tende a variare a seconda della complessità dell’inganno, ma in molti casi raggiunge livelli allarmanti. Questo suggerisce che l’intelligenza artificiale, se sfruttata con fini fraudolenti, potrebbe rappresentare un rischio reale per la sicurezza dei dati e dei conti bancari delle persone.
OpenAI è consapevole di questi rischi e ha dichiarato di lavorare costantemente per rendere GPT-4 più sicuro e limitare possibili abusi. Tuttavia, la crescita e la diffusione di queste tecnologie aprono un dibattito importante sul loro ruolo nella società.
Diventa essenziale stabilire normative e regolamentazioni che possano evitare che l’intelligenza artificiale venga utilizzata per scopi illeciti. Queste misure potrebbero aiutare a prevenire che l’intelligenza artificiale diventi una minaccia per la nostra sicurezza, proteggendo così utenti e istituzioni.
Se vuoi aggiornamenti su su questo argomento inserisci la tua email nel box qui sotto:
Compilando il presente form acconsento a ricevere le informazioni relative ai servizi di cui alla presente pagina ai sensi dell'informativa sulla privacy.