Meta ha recentemente rilasciato un'implementazione "open" della funzione virale di generazione di un podcast in NotebookLM di Google. Chiamato NotebookLlama, il progetto utilizza i modelli Llama di Meta per gran parte dell'elaborazione. Come la controparte di Google, anche NotebookLlama può generare riepiloghi avanti e indietro in stile podcast di file di testo caricati su di esso. Lo strumento di Meta crea innanzitutto una trascrizione da un file, ad esempio un PDF di un articolo di notizie o un post di blog. In seguito, aggiunge “più drammatizzazione” e interruzioni prima di alimentare la trascrizione per aprire modelli di sintesi vocale. I risultati non sembrano così buoni come quelli di NotebookLM. Nei campioni di NotebookLlama le voci hanno una qualità robotica e tendono a parlare tra loro in punti strani. Ma i ricercatori Meta dietro al progetto affermano che la qualità potrebbe essere migliorata con modelli più potenti.
Meta: NotebookLlama non è esente da allucinazioni
Gli sviluppatori hanno riconosciuto i punti deboli di questo strumento. Come riportato sulla pagina GitHub del progetto: "Il modello di sintesi vocale è il limite alla naturalezza del suono. [Inoltre,] un altro approccio per scrivere il podcast sarebbe quello di far sì che due agenti discutano dell'argomento di interesse e scrivano la struttura del podcast. Al momento utilizziamo un unico modello per scrivere la struttura del podcast”. NotebookLlama non è il primo tentativo di replicare la funzionalità podcast di NotebookLM. Alcuni progetti hanno avuto più successo di altri. Ma nessuno, nemmeno lo stesso NotebookLM, è riuscito a risolvere il problema delle allucinazioni che affligge tutti i modelli AI. Vale a dire, i podcast generati dall’intelligenza artificiale sono destinati a contenere materiale inventato.
Naturalmente, in un prossimo futuro, tale strumento verrà sviluppato ulteriormente ed è possibile che la versione di Meta sia in grado di competere con NoteBookLM di Google. Per scoprirlo bisognerà comunque attendere ancora un po’ di tempo.