Ingegneri informatici, sviluppatori e ricercatori accademici hanno serie preoccupazioni sulle trascrizioni di Whisper di OpenAI. Ciò è quanto rilevato da un recente rapporto dell'Associated Press. Le discussioni sulla tendenza dell'IA generativa ad inventare cose (ovvero ad avere allucinazioni) non sono nuove. Tuttavia, è un po' sorprendente che questi riguardino le trascrizioni. Infatti, in questi casi ci si aspetterebbe la funzionalità riporti in modo fedele l'audio che viene trascritto. Invece, i ricercatori rivelato all'Associated Press che Whisper ha introdotto di tutto, dai commenti razziali ai trattamenti medici immaginari nelle trascrizioni. E questo potrebbe essere particolarmente disastroso quando Whisper verrà adottato negli ospedali e in altri contesti medici.
Whisper: tool usato per trascrivere 7 milioni di visite mediche
Un ricercatore dell'Università del Michigan che studiava le riunioni pubbliche ha trovato allucinazioni in otto trascrizioni audio su 10. Un ingegnere di apprendimento automatico ha studiato più di 100 ore di trascrizioni e ha trovato allucinazioni in più della metà di esse. Infine, uno sviluppatore ha riferito di aver trovato allucinazioni in quasi tutte le 26.000 trascrizioni che ha creato. Questo tool è integrato in ChatGPT e presenta funzionalità nelle piattaforme cloud di Oracle e Microsoft. Serve migliaia di aziende per la trascrizione e la traduzione. Una versione di Whisper è stata recentemente scaricata oltre 4,2 milioni di volte da HuggingFace.
Oltre 30.000 medici e 40 sistemi sanitari, tra cui il Children's Hospital di Los Angeles, utilizzano uno strumento basato su Whisper sviluppato da Nabla, un'azienda con uffici in Francia e negli Stati Uniti. Nabla ha riferito che lo strumento ha trascritto circa 7 milioni di visite mediche. L'elevato tasso di allucinazioni ha spinto esperti ed ex dipendenti di OpenAI a chiedere normative federali sull'intelligenza artificiale e a sollecitare OpenAI a risolvere questa falla. Un portavoce di OpenAI ha affermato che l'azienda sta "lavorando costantemente per migliorare l'accuratezza dei nostri modelli, inclusa la riduzione delle allucinazioni". Inoltre, ha osservato che le sue politiche di utilizzo proibiscono l'uso di Whisper "in determinati contesti decisionali ad alto rischio".