Microsoft ha intrapreso un'azione legale contro un gruppo che l'azienda sostiene abbia intenzionalmente sviluppato e utilizzato strumenti per aggirare le barriere di sicurezza dei suoi prodotti di intelligenza artificiale cloud. Secondo una denuncia presentata dall'azienda a dicembre presso la Corte distrettuale degli Stati Uniti per il distretto orientale della Virginia, un gruppo di 10 imputati senza nome avrebbe utilizzato credenziali rubate dei clienti e software personalizzato per entrare nel servizio Azure OpenAI. Quest’ultimo è il servizio completamente gestito di Microsoft basato sulle tecnologie del produttore di ChatGPT OpenAI.
Nella denuncia, Microsoft accusa gli imputati, a cui si riferisce solo come "Does", uno pseudonimo legale, di aver violato il Computer Fraud and Abuse Act, il Digital Millennium Copyright Act e una legge federale contro la criminalità organizzata. Il gruppo avrebbe avuto accesso utilizzando illecitamente il software e i server di Microsoft allo scopo di "creare contenuti offensivi", "dannosi e illeciti". Microsoft non ha fornito dettagli specifici sui contenuti offensivi generati. L'azienda sta cercando un provvedimento ingiuntivo e un "altro risarcimento equitativo" e danni.
Microsoft: creato uno schema di "hacking-as-a-service" con chiavi API rubate
Microsoft afferma di aver scoperto tale abuso a luglio 2024. Le credenziali di Azure OpenAI Service (soprattutto chiavi API) venivano utilizzate per generare contenuti che violano la politica di utilizzo accettabile del servizio. Secondo la denuncia, Microsoft ha scoperto che le chiavi API erano state rubate ai clienti paganti. L’azienda sostiene che gli imputati hanno utilizzato chiavi API rubate appartenenti a clienti con sede negli Stati Uniti per creare uno schema di "hacking-as-a-service". Secondo la denuncia, per portare a termine questo schema, gli imputati hanno creato uno strumento lato client chiamato de3u. In seguito, è stato creato un software per l'elaborazione e l'instradamento delle comunicazioni da de3u ai sistemi Microsoft.
L’azienda di Redmond sostiene che de3u ha consentito agli utenti di sfruttare le chiavi API rubate per generare immagini utilizzando DALL-E, senza dover scrivere codice. De3u ha anche tentato di impedire ad Azure OpenAI Service di rivedere i prompt utilizzati per generare immagini. Ciò può accadere, ad esempio, quando un prompt di testo contiene parole che attivano il filtro dei contenuti di Microsoft.
In un post sul blog pubblicato venerdì, Microsoft ha affermato che il tribunale l'ha autorizzata a sequestrare un sito web "strumentale" all'attività degli imputati che consentirà all'azienda di raccogliere prove, decifrare come vengono monetizzati i presunti servizi degli imputati e interrompere qualsiasi ulteriore infrastruttura tecnica che troverà. Microsoft afferma inoltre di aver “messo in atto delle contromisure”, che l’azienda non ha specificato. Infine, Redmond ha specificato di aver “aggiunto ulteriori misure di sicurezza” al servizio Azure OpenAI mirate all’attività osservata.