Procura del Texas accusa Meta e Character.AI di ingannare i giovani sulla salute mentale.
Nonostante le affermazioni di Meta, molti bambini potrebbero non comprendere, o potrebbero semplicemente ignorare, tali disclaimer. È stato chiesto a Meta quali ulteriori misure di sicurezza siano state implementate per proteggere i minorenni che utilizzano i suoi chatbot.
Character.AI, dal canto suo, integra disclaimer evidenti in ogni chat per ricordare agli utenti che un “Character” non è una persona reale e che tutto ciò che dicono dovrebbe essere considerato finzione. Un portavoce di Character ha affermato che la startup aggiunge ulteriori disclaimer quando gli utenti creano personaggi che utilizzano le parole “psicologo”, “terapeuta” o “dottore” per sottolineare di non fare affidamento su di essi per consigli professionali.
Paxton ha anche evidenziato che, sebbene i chatbot IA affermino di garantire la riservatezza, “i loro termini di servizio rivelano che le interazioni degli utenti vengono registrate, tracciate e sfruttate per pubblicità mirate e sviluppo degli algoritmi, sollevando gravi preoccupazioni sulle violazioni della privacy, sull’abuso dei dati e sulla pubblicità ingannevole”.
