Com’è ormai noto, nei giorni scorsi Apple Intelligence ha inviato una notifica ai propri utenti che affermava che Luigi Mangione, arrestato per l’omicidio del CEO di UnitedHealth, Brian Thompson, si fosse suicidato. La notizia non era vera, ma si trattava soltanto di un’allucinazione dell’AI. Tale fake news era stata attribuita erroneamente all’app BBC News. Ciò ha scatenato le proteste da parte del network. In seguito a questo errore, la BBC ha presentato un reclamo ad Apple. Ora, Reporter Senza Frontiere (RSF) è intervenuta, esortando Apple a disattivare del tutto la funzione di notifica Apple Intelligence.
RSF ha indicato l'incidente come prova dei limiti dell'AI nella gestione di informazioni sensibili. In una dichiarazione, l’organizzazione ha affermato: “Questo incidente evidenzia l'incapacità dei sistemi di IA di pubblicare sistematicamente informazioni di qualità, anche quando si basano su fonti giornalistiche. Il modo probabilistico in cui operano i sistemi di IA li squalifica automaticamente come tecnologia affidabile per i media che può essere utilizzata in soluzioni rivolte al grande pubblico”.
Apple Intelligence: allucinazioni un rischio reale per gli utenti
Negli ultimi giorni, il nome di Mangione è stato su tutti i giornali statunitensi e non solo. Apple Intelligence sembra aver interpretato male i titoli, creando un grave equivoco nel riepilogo generato. Tuttavia, non si è trattato solo di un semplice errore di battitura o di un piccolo errore. Quello dell’AI di Apple è un errore significativo nel modo in cui è stata presentata la notizia. Errori di questo tipo potrebbero facilmente portare a confusione o persino scatenare il panico tra gli utenti (ad esempio se si dovesse ricevere una falsa notizia su un attacco nucleare).
Ad oggi non è chiara quale sarà la risposta di Apple all’invito di Reporter Senza Frontiere. L’azienda di Cupertino potrebbe effettivamente disattivare momentaneamente la funzionalità “incriminata” di Apple Intelligence, per poi riproporla migliorata in seguito. Tuttavia, questo caso mostra come l’intelligenza artificiale abbia ancora molti limiti e quanto sia ancora indispensabile un controllo umano.