L’agenzia di sicurezza Tenable ha recentemente scoperto una vulnerabilità critica nella funzionalità "Connessioni dati" nel servizio Azure Health Bot. Questa funzionalità ha consentito ai bot di interagire con origini dati esterne tramite API di terze parti per recuperare informazioni. Il servizio Azure Health Bot di Microsoft consente alle organizzazioni sanitarie di creare e distribuire esperienze di assistenza sanitaria conversazionali basate sull'intelligenza artificiale. Utilizza un database medico integrato con funzionalità di linguaggio naturale per comprendere la terminologia clinica e consente alle organizzazioni sanitarie di personalizzarlo in base ai loro casi di utilizzo clinici. Mentre l'Internal Metadata Service (IMDS) di Azure era opportunamente filtrato o inaccessibile, le risposte di reindirizzamento (codici di stato 301/302) consentivano di bypassare i filtri. Attraverso la vulnerabilità server-side request forgery (SSRF), i ricercatori di Tenable sono stati in grado di accedere alle risorse appartenenti a tenant diversi.
Azure Health Bot: nuova vulnerabilità nelle connessioni dati per gli endpoint FHIR
In seguito a questa scoperta, Tenable ha segnalato i suoi risultati a MSRC il 17 giugno 2024. MSRC ha assegnato a questo problema un livello di gravità Critico - Elevazione dei privilegi. A partire dal 2 luglio, Microsoft ha distribuito le correzioni in tutte le regioni. Tenable ha anche affermato di non aver trovato prove che indicassero che questo problema fosse stato sfruttato da un malintenzionato. Mentre convalidava le correzioni distribuite da Microsoft, Tenable ha trovato un'altra vulnerabilità simile nelle connessioni dati per gli endpoint FHIR. Tenable ha nuovamente segnalato questo problema a MSRC il 9 luglio. MSRC ha assegnato a questo problema un livello di gravità Importante - Elevazione dei privilegi. Microsoft ha risolto questo secondo problema entro il 12 luglio.
In merito alla vulnerabilità di Azure Health Bot, il ricercatore di Tenable Jimi Sebree ha dichiarato che: "Le vulnerabilità discusse in questo post riguardano difetti nell'architettura sottostante del servizio chatbot AI, non nei modelli AI stessi. Ciò evidenzia la continua importanza dei tradizionali meccanismi di sicurezza delle applicazioni Web e del cloud in questa nuova era di servizi basati sull'AI". Poiché le correzioni sono state eseguite sul lato server da Microsoft, non è richiesta alcuna azione da parte del cliente.