Azure AI Content Safety è un servizio AI di Microsoft che rileva contenuti dannosi generati dagli utenti e dall'AI in applicazioni e servizi. Offre API sia di testo che di immagini, consentendo agli sviluppatori di identificare materiale indesiderato. L'API di rilevamento Groundedness all'interno di Azure AI Content Safety può determinare se le risposte del modello linguistico di grandi dimensioni sono basate su materiali di origine selezionati dall'utente. Poiché gli attuali modelli linguistici di grandi dimensioni possono produrre informazioni imprecise o non fattuali (allucinazioni), questa API aiuta gli sviluppatori a identificare tali contenuti negli output AI. Microsoft ha annunciato un'anteprima dello strumento. Gli sviluppatori possono ora rilevare e correggere contenuti allucinati in output AI in tempo reale. Ciò permetterà di assicurarsi che gli utenti finali ricevano costantemente contenuti AI generati in modo accurato.
Microsoft: come funziona il tool di correzione AI
Per sfruttare la nuova funzionalità di correzione, gli sviluppatori dell'applicazione devono in primis abilitarla. Quando viene rilevata una frase non corretta, viene inviata una nuova richiesta al modello di intelligenza artificiale generativa per una correzione. Il modello valuta quindi la frase come non fondata rispetto al documento di base. Le frasi senza contenuto correlato al documento di base possono essere filtrate completamente. Infine, se il contenuto proviene dal documento di base, il modello di base riscrive la frase non fondata per allinearla al documento. Oltre alla funzionalità di correzione, Microsoft ha annunciato l'anteprima pubblica della versione ibrida di Azure AI Content Safety (AACS). Ciò consente agli sviluppatori di distribuire meccanismi di sicurezza dei contenuti nel cloud e sul dispositivo. L'SDK incorporato di AACS consente controlli di sicurezza dei contenuti in tempo reale direttamente sui dispositivi, anche senza connessione Internet.
Infine, Microsoft ha annunciato l'anteprima di Protected Materials Detection for Code. Questo tool può essere utilizzato con applicazioni AI che generano codice per rilevare se l'LLM ha generato codice protetto. Tale funzionalità era precedentemente disponibile solo tramite Azure OpenAI Service. L’azienda di Redmond sta ora rendendo questa funzionalità disponibile a tutti e può essere usata insieme ad altri modelli AI che generano codice. Gli aggiornamenti appena annunciati da Microsoft hanno lo scopo di migliorare l'affidabilità e l'accessibilità della moderazione dei contenuti di intelligenza artificiale, promuovendo applicazioni di intelligenza artificiale più sicure e affidabili su varie piattaforme e ambienti.