Nel corso del recente Microsoft Ignite 2023, l’azienda di Redmond ha fatto diversi annunci riguardanti le nuove integrazioni dell’intelligenza artificiale nei suoi servizi. Oltre ai vari aggiornamenti per Copilot, uno degli annunci più curiosi ha riguardato un nuovo strumento che permette di creare deepfake. Si tratta di avatar realistici di persone, che possono essere animati per far dire tutto ciò che si desidera. Chiamata “Azure AI Speech text to speech avatar” (avatar di sintesi vocale di Azure AI Speech), la nuova funzionalità è già disponibile in anteprima pubblica. Per generare video con questa funzione, basterà caricare alcune immagini della persona che si desidera usare come base per il deepfake e scrivere lo script. Lo strumento AI di Microsoft sfrutta un modello per generare l'animazione. Dall’altro lato, un modello di sintesi vocale separato, precostruito o addestrato sulla voce della persona, legge lo script ad alta voce.
Microsoft: pro e contro dell’utilizzo dei deepfake
Gli avatar di sintesi vocale, spiega Microsoft nel suo blog ufficiale consentono agli utenti di “creare video in modo più efficiente. Questi possono sfruttare gli avatar per creare video di formazione, presentazioni di prodotti, testimonianze di clienti, ecc., semplicemente inserendo testo. Con il rilascio del servizio Azure OpenAI e della sintesi vocale neurale – continua Microsoft - la conversazione interattiva è più naturale di prima. Con l'avatar di sintesi vocale, gli utenti possono creare interazioni digitali più coinvolgenti. È possibile utilizzare l'avatar per creare agenti conversazionali, assistenti virtuali, chatbot e altro ancora”. Gli avatar possono parlare in più lingue. Per quanto riguarda i chatbot, questi possono sfruttare modelli di intelligenza artificiale come GPT-3.5 di OpenAI per rispondere alle domande dei clienti (che non riguardano lo script impostato).
L’arrivo di avatar deepfake solleva una serie di scomode questioni etiche e non solo, poiché un uso improprio della funzione potrebbe causare problemi non da poco. Questi avatar possono essere infatti utilizzati per diffondere fake news, false credenze o per propaganda politica. Microsoft sarà in grado di evitare che questa sua tecnologia per creare deepfake non cada in mani sbagliate?