L’ Oversight Board critica l’inefficacia della moderazione dei deepfake da parte di Meta.
Raccomandazioni per Meta e il Futuro della Moderazione dei Contenuti
Il Meta Oversight Board ha evidenziato che l’attuale sistema di Meta per etichettare i contenuti generati da AI è troppo dipendente dall’autodichiarazione da parte degli utenti riguardo all’uso dell’AI e richiede una revisione più approfondita. Le pratiche esistenti non riflettono le realità dell’ambiente online odierno, dove i contenuti possono diffondersi rapidamente tra diverse piattaforme. In effetti, è emerso che un contenuto potrebbe originare su TikTok prima di essere condiviso su Facebook, Instagram e X.
Le azioni raccomandate dal Consiglio includono una revisione delle regole esistenti su disinformazione, per affrontare in modo specifico i deepfake ingannevoli. È fondamentale stabilire un nuovo standard comunitario separato per i contenuti generati da AI, migliorando allo stesso tempo gli strumenti di rilevamento dell’AI. Questa evoluzione deve garantire anche maggiore trasparenza riguardo alle penali per le violazioni delle politiche legate all’AI, oltre a scalare gli sforzi per etichettare i contenuti AI.
