Anthropic: utenti devono scegliere tra rinunciare o condividere le chat per il training AI.

Anthropic: utenti devono scegliere tra rinunciare o condividere le chat per il training AI.

Implicazioni per gli Utenti di Claude

Questa è una modifica significativa. Prima, agli utenti dei prodotti consumer di Anthropic veniva comunicato che i loro input e le risposte delle conversazioni sarebbero stati automaticamente eliminati dai server dell’azienda entro 30 giorni, a meno che fosse richiesta una retention più lunga per motivi legali o normativi. Tuttavia, in caso di violazione delle politiche, tali dati avrebbero potuto essere conservati fino a due anni.

Quando parliamo di utenti consumer, intendiamo che le nuove politiche si applicano a Claude Free, Pro e Max, inclusi coloro che utilizzano Claude Code. Gli utenti aziendali che utilizzano Claude Gov, Claude for Work, Claude for Education o l’accesso API non saranno coinvolti, simile a come OpenAI protegge i clienti aziendali dalle politiche di addestramento sui dati.


Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *