Facebook e Instagram sono una fonte inesauribile di informazioni. Proprio per questo motivo, Meta ha deciso di attingere ai post pubblici pubblicati sui due social del gruppo con l’obiettivo addestrare l’intelligenza artificiale dell’assistente virtuale Meta AI. Il presidente degli affari globali di Meta, Nick Clegg, in un’intervista all’agenzia di stampa Reuters ha dichiarato: “Abbiamo cercato di escludere set di dati che contengono una forte preponderanza di informazioni personali”. Clegg ha poi riferito che la stragrande maggioranza dei post analizzati erano pubblici e che Meta ha escluso post privati condivisi soltanto con familiari amici, per rispettare la privacy degli utenti, principale policy dell’azienda. Inoltre, l’azienda ha escluso anche le chat private degli utenti su WhatsApp, Messenger e Instagram Direct. Infine Meta ha adottato misure per filtrare i dettagli privati dai set di dati pubblici usati per l’addestramento.
Meta, Google e gli altri: usare gli utenti per addestrare l’AI
La notizia sull’addestramento di Meta AI con i post pubblici degli utenti (testo e foto inclusi) non dovrebbe sorprendere più di tanto. L’azienda di Menlo Park non è infatti l’unica ad utilizzare questo tipo di metodi. Spotify, ad esempio, analizza le abitudini di ascolto degli utenti per consigliare nuovi brani. Lo stesso fa Netflix con film e serie TV. X (ex Twitter) e Instagram analizzano le interazioni degli utenti per personalizzare i post da mostrare nei feed. Dall’altro lato però, alcune aziende hanno deciso di adottare una strategia diversa, permettendo agli utenti di avere il controllo sulle proprie informazioni. È il caso di Google che, dopo aver dichiarato (in sordina) di utilizzare i dati degli utenti per addestrare il suo assistente Bard, ha dato a quest'ultimi la possibilità di negare il loro consenso per motivi di privacy.
Anche OpenAI ha deciso di usare lo stesso approccio di Google dopo le varie polemiche e le cause per violazione di copyright. Gli artisti possono infatti fare esplicita richiesta per non permettere all’azienda di addestrare l’AI con le loro opere. La protezione della privacy è un tema decisamente importante, soprattutto quando si tratta di intelligenza artificiale. Oltrepassare il limite e usare i dati personali degli utenti per addestrare i LLM è molto facile. Rischiare di privare le persone della propria privacy in nome del progresso tecnologico è giusto? Ne vale davvero la pena?