Anthropic: utenti devono scegliere tra rinunciare o condividere le chat per il training AI.

Anthropic: utenti devono scegliere tra rinunciare o condividere le chat per il training AI.

Anthropic: utenti devono scegliere tra rinunciare o condividere le chat per il training AI.

Il Cambiamento nelle Politiche sui Dati di Anthropic

Anthropic sta apportando importanti modifiche alla gestione dei dati degli utenti, costringendo tutti gli utilizzatori di Claude a decidere entro il 28 settembre se desiderano che le loro conversazioni vengano utilizzate per addestrare i modelli di intelligenza artificiale. Sebbene l’azienda ci abbia indirizzato a un post del suo blog riguardante i cambiamenti normativi, abbiamo formulato alcune teorie al riguardo.

Ma vediamo prima cosa sta cambiando: in precedenza, Anthropic non utilizzava i dati delle chat degli utenti per l’addestramento dei modelli. Ora, l’azienda intende impiegare le conversazioni e le sessioni di codifica degli utenti per formare i suoi sistemi di intelligenza artificiale, estendendo la retention dei dati fino a cinque anni per coloro che non scelgono di disattivare questa opzione.


Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *