Elon Musk e la sua piattaforma X sono finiti nel mirino delle autorità europee per la protezione dei dati. La ragione? L'utilizzo dei dati degli utenti europei per addestrare il chatbot di intelligenza artificiale Grok senza chiedere il loro consenso.
La scoperta è stata fatta da un utente che ha trovato un'impostazione nascosta che indicava il trattamento dei dati degli utenti europei per l'addestramento dell'AI. La notizia ha sorpreso l'Irish Data Protection Commission (DPC), l'autorità di controllo preposta al rispetto del GDPR.
Il GDPR prevede sanzioni fino al 4% del fatturato globale annuale per le violazioni. Le nove denunce presentate da autorità di diversi paesi europei accusano X di aver violato questo regolamento, trattando i dati degli utenti per l'addestramento dell'AI senza ottenere il loro consenso.
Max Schrems, presidente dell'organizzazione noyb, ha commentato che la DPC è stata spesso inefficiente nell'applicazione del GDPR. Le denunce mirano a garantire il rispetto della legge europea da parte di X, che prevede il consenso degli utenti per l'utilizzo dei dati.
Avviata un'azione legale del DPC
Il DPC ha già avviato un'azione legale per bloccare l'utilizzo dei dati da parte di X, ma noyb sostiene che queste misure non siano sufficienti, poiché non è possibile eliminare i dati già utilizzati per l'addestramento dell'AI.
X sembra giustificare l'utilizzo dei dati sulla base del "legittimo interesse", ma gli esperti di privacy sostengono che sia necessario il consenso degli utenti. Secondo Schrems, le aziende dovrebbero semplicemente chiedere agli utenti se possono utilizzare i loro dati per l'addestramento dell'AI, come fanno per altre finalità.
Meta ha sospeso un piano simile dopo le denunce di noyb e l'intervento dei regolatori. X, invece, è riuscita a procedere senza essere scoperta per diverse settimane. Gli utenti hanno potuto disattivare il trattamento dei dati solo da fine luglio, ma non è stato possibile bloccarlo prima.
Il GDPR mira a proteggere gli europei dall'utilizzo inaspettato dei loro dati, che può avere conseguenze sulle loro libertà. Noyb sostiene che il "legittimo interesse" non sia valido per l'utilizzo dei dati per l'addestramento dell'AI, come stabilito dalla Corte di giustizia europea. Inoltre, le aziende di intelligenza artificiale spesso non riescono a rispettare altri diritti previsti dal GDPR, come il diritto all'oblio.