Anthropic: utenti devono scegliere tra rinunciare o condividere le chat per il training AI.
Ma perché è in atto questa modifica? Nel post sul nuovo aggiornamento, Anthropic presenta i cambiamenti come una questione di scelta degli utenti, affermando che non disattivando l’opzione, gli utenti aiuteranno a migliorare la sicurezza del modello, rendendo più precise le sue capacità di rilevamento dei contenuti dannosi. Secondo l’azienda, gli utenti contribuiranno anche a migliorare le future versioni di Claude in competenze come programmazione, analisi e ragionamento, conducendo a modelli migliori per tutti.
In sintesi, “aiutaci ad aiutarti”. Ma la verità completa è probabilmente meno disinteressata. Come tutte le grandi aziende che sviluppano modelli di linguaggio, Anthropic ha bisogno di dati più di quanto necessiti del buon nome del suo brand. L’addestramento dei modelli di IA richiede enormi quantità di dati conversazionali di alta qualità, e accedere a milioni di interazioni di Claude dovrebbe fornire il tipo di contenuto reale in grado di elevare la posizione competitiva di Anthropic rispetto a rivali come OpenAI e Google.
