Nonostante ChatGPT sia visto, più o meno a ragione, come uno strumento potenzialmente pericoloso, la sua natura tende ad assecondare le necessità degli utenti.
La curiosità nei suoi confronti, ha reso questo chatbot molto popolare negli ultimi mesi, attirando anche l'attenzione di chi usa la rete per scopi ben poco nobili. Anche i cybercriminali, dunque, si sono interessati all'IA e alle sue potenziali applicazioni nel contesto del loro "lavoro".
I ricercatori di una società chiamata Netenrich hanno scoperto qualcosa di piuttosto preoccupante a tal proposito. Stiamo parlando di un modello di Intelligenza Artificiale chiamato FraudGPT che, contrariamente a ChatGPT, si focalizza su attività illecite.
Se il chatbot di OpenAI ha dei limiti di output, mostrandosi restio a fornire risposte che riportino ad attività illegali, FraudGPT elimina del tutto questi filtri. Che si tratti di frodi via e-mail, phishing o quant'altro, tale chatbot offre i propri servigi senza alcun tipo di remora.
FraudGPT lavora anche tramite Telegram: ecco come funziona il chatbot "malvagio"
Il fatto davvero inquietante è che questo pericoloso strumento viene venduto sul Dark Web e che è possibile integrare lo stesso su Telegram.
Di fatto, FraudGPT è pressoché alla portata di chiunque: un problema che sta assillando gli esperti di sicurezza informatica, visto che questa condizione offre terreno fertile per realizzare truffe e frodi di qualunque tipo.
Il team di ricerca sulle minacce di Netenrich ha notato questo strumento pericoloso nel luglio 2023, scoprendo anche che FraudGPT dispone di alcune misure di sicurezza, proprio come fa ChatGPT. Queste tutele riducono le probabilità di rispondere a domande che potrebbero essere poste da analisti di cybersecurity per analizzare il chatbot.
Non solo: lo strumento viene aggiornato in maniera costante dai suoi creatori, con update che avvengono al massimo ogni due settimane. Secondo gli esperti, il chatbot viene proposto con abbonamenti da 200 dollari al mese (o 1.700 dollari all'anno). Di fatto, stiamo parlando di un vero e proprio business legato al cybercrimine.
Una situazione preoccupante dunque, anche perché FraudGPT non è l'unico del suo genere: un altro progetto simile, noto come DarkBART, è stato di recente scoperto dagli esperti di sicurezza.