Meta sta rimuovendo per errore troppi contenuti dalle sue app, come Facebook, Instagram e WhatsApp. Ciò è quanto rivelato da Nick Clegg, presidente degli affari globali dell’azienda. Lunedì, nel corso di una conferenza stampa, Clegg affermato che "tassi di errore di moderazione" dell'azienda sono ancora troppo alti e si è impegnato a "migliorare la precisione e l'accuratezza con cui agiamo in base alle nostre regole. Come riferito dal dirigente Meta: "Sappiamo che quando applichiamo le nostre policy, i nostri tassi di errore sono ancora troppo alti, il che ostacola la libera espressione che ci siamo prefissati di abilitare. Troppo spesso, contenuti innocui vengono rimossi o limitati e troppe persone vengono penalizzate ingiustamente".
Meta: sistemi di moderazione troppo maldestri
L'azienda si rammarica anche di aver rimosso in modo aggressivo i post sulla pandemia di COVID-19. Il CEO Mark Zuckerberg ha recentemente dichiarato alla Commissione Giustizia della Camera guidata dai repubblicani che la decisione è stata influenzata dalle pressioni dell'amministrazione Biden. Come affermato ancora da Clegg: "Avevamo regole molto severe che rimuovevano volumi molto grandi di contenuti durante la pandemia. Nessuno durante la pandemia sapeva come si sarebbe sviluppata, quindi questa è davvero saggezza a posteriori. Ma a posteriori, sentiamo di aver esagerato un po'. Siamo perfettamente consapevoli perché gli utenti hanno giustamente alzato la voce e si sono lamentati del fatto che a volte applichiamo troppe regole e commettiamo errori e rimuoviamo o limitiamo contenuti innocui o innocenti".
I commenti di Clegg suggeriscono che, dopo aver speso miliardi di dollari per la moderazione, i sistemi automatizzati di Meta sono diventati troppo maldestri. Esempi di "fallimenti di moderazione" sono stati recentemente di tendenza su Threads, che è stato afflitto da errori di rimozione negli ultimi mesi. L'azienda si è anche scusata pubblicamente dopo che i suoi sistemi hanno soppresso le foto del presidente eletto Donald Trump sopravvissuto a un attentato. Ad oggi non è chiaro come Meta intenda migliorare i suoi sistemi di moderazione. Verranno applicati cambiamenti a breve? Solo il tempo potrà dirlo.