Chi decide cosa comunica l’IA? Le riflessioni di Campbell Brown di Meta.
Quello che la frustrava di più era che l’accuratezza non sembrava essere una priorità per nessuno. Le aziende che sviluppano modelli di fondazione, ha spiegato, sono “estremamente focalizzate su codifica e matematica,” mentre notizie e informazioni sono più complesse. Ma questa complessità, sostiene, non significa che possa essere trascurata.
Infatti, quando Forum AI ha iniziato a valutare i modelli più rinomati, i risultati non erano affatto incoraggianti. Ha citato Gemini, che traeva informazioni da siti web del Partito Comunista Cinese “per storie non correlate alla Cina,” e ha notato un bias politico di sinistra presente in quasi tutti i modelli. Ci sono anche fallimenti più sottili, come la mancanza di contesto, di prospettive e l’uso di argomenti frivoli senza riconoscimento. “C’è molta strada da fare,” ha dichiarato. “Ma penso anche che ci siano alcune soluzioni molto semplici che migliorerebbero enormemente i risultati.”
Brown ha trascorso anni a Facebook osservando cosa succede quando una piattaforma ottimizza per il fattore sbagliato. “Abbiamo fallito in molte delle cose che abbiamo provato,” ha detto a Fernholz. Il programma di verifica dei fatti che ha costruito non esiste più. La lezione, anche se i social media hanno ignorato questo aspetto, è che ottimizzare per l’engagement ha avuto effetti negativi sulla società, lasciando molte persone meno informate.
