Nessun risultato. Prova con un altro termine.
Guide
Notizie
Software
Tutorial

Meta ammette di aver effettuato troppa moderazione per errore

Secondo il presidente di Meta, Nick Clegg, molti contenuti innocui vengono rimossi o limitati senza una giusta motivazione.
Meta ammette di aver effettuato troppa moderazione per errore
Secondo il presidente di Meta, Nick Clegg, molti contenuti innocui vengono rimossi o limitati senza una giusta motivazione.
Link copiato negli appunti

Meta sta rimuovendo per errore troppi contenuti dalle sue app, come Facebook, Instagram e WhatsApp. Ciò è quanto rivelato da Nick Clegg, presidente degli affari globali dell’azienda. Lunedì, nel corso di una conferenza stampa, Clegg affermato che "tassi di errore di moderazione" dell'azienda sono ancora troppo alti e si è impegnato a "migliorare la precisione e l'accuratezza con cui agiamo in base alle nostre regole. Come riferito dal dirigente Meta: "Sappiamo che quando applichiamo le nostre policy, i nostri tassi di errore sono ancora troppo alti, il che ostacola la libera espressione che ci siamo prefissati di abilitare. Troppo spesso, contenuti innocui vengono rimossi o limitati e troppe persone vengono penalizzate ingiustamente".

Meta: sistemi di moderazione troppo maldestri

L'azienda si rammarica anche di aver rimosso in modo aggressivo i post sulla pandemia di COVID-19. Il CEO Mark Zuckerberg ha recentemente dichiarato alla Commissione Giustizia della Camera guidata dai repubblicani che la decisione è stata influenzata dalle pressioni dell'amministrazione Biden. Come affermato ancora da Clegg: "Avevamo regole molto severe che rimuovevano volumi molto grandi di contenuti durante la pandemia. Nessuno durante la pandemia sapeva come si sarebbe sviluppata, quindi questa è davvero saggezza a posteriori. Ma a posteriori, sentiamo di aver esagerato un po'. Siamo perfettamente consapevoli perché gli utenti hanno giustamente alzato la voce e si sono lamentati del fatto che a volte applichiamo troppe regole e commettiamo errori e rimuoviamo o limitiamo contenuti innocui o innocenti".

I commenti di Clegg suggeriscono che, dopo aver speso miliardi di dollari per la moderazione, i sistemi automatizzati di Meta sono diventati troppo maldestri. Esempi di "fallimenti di moderazione" sono stati recentemente di tendenza su Threads, che è stato afflitto da errori di rimozione negli ultimi mesi. L'azienda si è anche scusata pubblicamente dopo che i suoi sistemi hanno soppresso le foto del presidente eletto Donald Trump sopravvissuto a un attentato. Ad oggi non è chiaro come Meta intenda migliorare i suoi sistemi di moderazione. Verranno applicati cambiamenti a breve? Solo il tempo potrà dirlo.

Ti consigliamo anche