Anthropic: utenti devono scegliere tra rinunciare o condividere le chat per il training AI.

Anthropic: utenti devono scegliere tra rinunciare o condividere le chat per il training AI.

Come funziona? I nuovi utenti sceglieranno la loro preferenza durante la registrazione, mentre gli utenti esistenti si troveranno di fronte a un popup con “Aggiornamenti ai Termini e alle Politiche dei Consumatori” in grande evidenza e un prominente pulsante nero “Accetta”, con un interruttore per le autorizzazioni all’addestramento molto più piccolo in basso nella scritta — e impostato automaticamente su “Attivo”. Come osservato precedentemente da The Verge, questo design solleva preoccupazioni riguardo alla possibilità che gli utenti possano cliccare rapidamente su “Accetta” senza rendersi conto di star acconsentendo alla condivisione dei loro dati.

Nel frattempo, le conseguenze per la consapevolezza degli utenti non potrebbero essere più alte. Gli esperti di privacy hanno a lungo avvertito che la complessità che circonda l’IA rende quasi irraggiungibile un consenso significativo da parte degli utenti. Sotto l’amministrazione Biden, la Federal Trade Commission è persino intervenuta, avvertendo che le aziende di IA potrebbero affrontare azioni di enforcement se ingaggiano in “cambiamenti furtivi ai termini di servizio o alle politiche sulla privacy, o nascondendo le divulgazioni dietro collegamenti ipertestuali, testi legali o in caratteri piccoli.”

Se la commissione – ora operante con solo tre dei cinque commissari – mantenga la propria attenzione su queste pratiche oggi è una domanda aperta, che abbiamo posto direttamente alla FTC.

Fonti: [Anthropic Blog](https://www.anthropic.com/blog), [OpenAI Official](https://openai.com), [The Verge](https://www.theverge.com).

Non perderti tutte le notizie di tecnologia su Blog.it

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *