Grok si spoglia di fronte a chiunque, compresi i minori: un comportamento inaccettabile.

Grok si spoglia di fronte a chiunque, compresi i minori: un comportamento inaccettabile.

Grok si spoglia di fronte a chiunque, compresi i minori: un comportamento inaccettabile.

L’Utilizzo Controverso dell’AI da parte di xAI

Negli ultimi giorni, una nuova funzionalità di Grok, un bot sviluppato da xAI, ha suscitato preoccupazioni in merito ai diritti di immagine e al consenso. Questa opzione consente agli utenti di X (ex Twitter) di modificare istantaneamente le foto di altre persone senza il loro permesso. Le modifiche possono includere la rimozione dei vestiti, generando immagini di donne e bambini in situazioni sessualmente esplicite, senza alcun avviso per il creatore originale del contenuto.

Un Fenomeno Inquietante

Copyleaks, un’azienda specializzata nell’autenticazione dell’AI, ha osservato che la rimozione dei vestiti dalle immagini è iniziata quando i creatori di contenuti per adulti hanno chiesto a Grok di generare immagini più sexy di loro stessi. Questo ha portato gli utenti a applicare prompt simili a fotografie di altre persone, principalmente donne, le quali non hanno prestato il loro consenso. Molte donne hanno notato un significativo aumento della creazione di deepfake su X, riportando l’accaduto a diversi media, tra cui Metro e PetaPixel.

Nei suoi sviluppi, Grok era già in grado di modificare immagini in modi sessualmente suggestivi quando veniva taggato in un post su X. Tuttavia, la nuova funzionalità di “Modifica Immagine” sembra aver intensificato l’uso di tali pratiche, generando un’ondazione di contenuti potenzialmente dannosi.

Esempi Preoccupanti di Deepfake

In un post su X, che è stato successivamente rimosso dalla piattaforma, Grok ha editato una foto di due giovani ragazze indossando abiti succinti e in pose sessualmente esplicite. Un altro utente ha richiesto a Grok di scusarsi per il “tribunale” relativo a un’immagine AI di ragazze in abbigliamento sessualmente provocante, definendo la situazione “un fallimento nelle misure di sicurezza”. Si è discusso sulla possibilità che queste immagini possano violare le politiche di xAI e la legge americana.

In effetti, la legge statunitense potrebbe considerare illegali le immagini sessualmente esplicite generate dall’AI che ritraggono adulti o bambini identificabili. Durante una conversazione con un utente, Grok ha addirittura suggerito di segnalare il caso all’FBI per contenuti sessualmente abusivi e ha dichiarato di “stare rapidamente risolvendo” le lacune nelle misure di sicurezza.


Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *