I modelli DALL-E di OpenAI possono generare immagini in base a prompt di testo. Azure OpenAI Service fornisce l'accesso API REST ai modelli DALL-E di OpenAI, consentendo agli sviluppatori di creare immagini a livello di programmazione all'interno delle loro applicazioni. Microsoft ha quindi annunciato una nuova funzionalità integrata in Azure OpenAI Service denominata "Watermarks". La nuova funzionalità aggiungerà filigrane invisibili a tutte le immagini generate tramite DALL-E per offrire maggiore trasparenza e protezione per le immagini AI. La recente ascesa dei modelli di generazione di immagini ha aumentato la diffusione di disinformazione e deepfake. Quindi, la necessità di identificare i contenuti generati dall'IA è essenziale. Questa nuova filigrana invisibile incorporata nelle immagini generate dall'IA può essere identificata da strumenti di rilevamento specializzati ma non sarà visibile a occhio nudo. Ciò proteggerà la fedeltà dell'immagine. Inoltre, anche se qualcuno ridimensiona o ritaglia l'immagine, l'integrità della filigrana rimane intatta.
Azure OpenAI Service: i dettagli inclusi nelle filigrane invisibili
Le filigrane invisibili conterranno informazioni sull'origine di un'immagine e sono rappresentate da una sezione testuale allegata all'immagine. Questa è firmata crittograficamente da un certificato di Azure OpenAI Service e includerà vari dettagli. La prima informazione utile è "description". Questo campo ha un valore di "AI Generated Image" per tutte le immagini generate dal modello DALL-E e prova la natura generata dall'AI dell'immagine. Vi è poi "softwareAgent". Tale campo ha un valore di "Azure OpenAI DALL-E" per tutte le immagini generate dai modelli della serie DALL-E in Azure OpenAI Service. Infine, vi è anche "when". Si tratta del timestamp di quando sono state create le credenziali del contenuto.
Questo non è il primo servizio in cui Microsoft incorpora filigrane. L'anno scorso, Microsoft ha introdotto filigrane per le voci create con la funzionalità vocale personale di Azure AI Speech. Ciò ha consentito agli utenti di identificare se la voce era sintetizzata tramite Azure AI Speech o meno. L’azienda di Redmond sta anche collaborando con altri importanti attori dell'IA, tra cui Adobe, Truepic e la BBC. Ciò per garantire che la filigrana, i metadati crittografici e altri meccanismi di rilevamento funzionino su tutte le piattaforme. Questa iniziativa di Microsoft segna un passo significativo verso un'implementazione responsabile dell'IA e la lotta all'uso improprio dei contenuti generati dall'IA.