Elon Musk sta promuovendo Grok, il suo chatbot basato sull'intelligenza artificiale e disponibile sulla piattaforma X per gli utenti a pagamento, come un nuovo metodo per rimanere aggiornati sulle notizie. Tuttavia, durante la recente sparatoria che ha coinvolto Donald Trump negli Stati Uniti, Grok ha diffuso informazioni errate, amplificando affermazioni non verificate nel caos successivo all'incidente.
I limiti del modello di intelligenza artificiale sono diventati evidenti nelle ore successive al tentato assassinio dell'ex presidente. Online sono circolati riassunti imprecisi della vicenda generati da Grok. Dallo scorso maggio, gli abbonati al piano Premium di X hanno accesso a X Stories, un servizio che fornisce sintesi generate dall'intelligenza artificiale sugli eventi più rilevanti.
Uno di questi riassunti, come riportato dal Wall Street Journal, affermava erroneamente che la vicepresidente Kamala Harris era stata coinvolta in una sparatoria. Questo errore è nato da riferimenti sarcastici fatti da alcuni utenti di X a un incidente precedente in cui il presidente Biden aveva confuso il nome di Trump con quello della Harris. Un altro riassunto ha identificato il presunto assalitore come un membro di antifa, un movimento di militanti di estrema sinistra.
Musk continua ad avere fiducia in Grok
Musk ha spesso criticato i mezzi di informazione tradizionali, definendoli lenti e inaffidabili. Per mesi ha incoraggiato gli utenti di X a utilizzare Grok per aggiornamenti sulle notizie. "Quello che stiamo facendo sulla piattaforma X è aggregare informazioni. Utilizziamo l'intelligenza artificiale per riassumere input provenienti da milioni di fonti", ha dichiarato a giugno. "Penso che questo sarà davvero il nuovo modello di notizie".
Nonostante le sue ambizioni, l'incidente con Trump ha messo in luce le problematiche legate all'affidabilità delle informazioni fornite da Grok. La diffusione di notizie false può avere conseguenze gravi, soprattutto in situazioni di crisi dove la precisione è fondamentale. Questo episodio solleva dubbi sull'efficacia dell'intelligenza artificiale nel gestire informazioni sensibili e sull'opportunità di affidarsi a tali tecnologie per notizie tempestive e accurate.