La Banana Pro di Google crea ottime teorie del complotto. Scopri il segreto!

La Banana Pro di Google crea ottime teorie del complotto. Scopri il segreto!

La Banana Pro di Google crea ottime teorie del complotto. Scopri il segreto!

Gemini di Google: la Generazione di Immagini Controverso

La nuova app Gemini di Google ha dimostrato di essere in grado di generare immagini sorprendenti ma anche discutibili, creando scenari che toccano eventi storici sensibili. Questo solleva interrogativi sulla moderazione dei contenuti generativi e sul copyright, una questione che è lungi dall’essere risolta.

Facilità e Controversie nella Creazione di Contenuti

Abbiamo scoperto che generare immagini utilizzando l’app Gemini è stato sorprendentemente semplice. Abbiamo chiesto immagini che ritraessero una seconda sparatoria a Dealey Plaza, la Casa Bianca avvolta dalle fiamme e Topolino che guida un aereo contro le Torri Gemelle. Sorprendentemente, l’app ha risposto prontamente, mostrando chiaramente che ci sono lacune nel sistema di protezione dei contenuti. Sebbene ci siano filtri progettati per prevenire la generazione di contenuti violenti o sessualmente espliciti, ci siamo resi conto che quegli stessi filtri non erano completamente efficaci.

L’app Gemini, che alimenta il generatore di immagini Nano Banana Pro, è normalmente pesantemente filtrata. Le linee guida ufficiali indicano che Google mira a fornire strumenti utili senza generare contenuti che possano causare danni reali. Tuttavia, la nostra esperienza ha dimostrato che le guardie di sicurezza non sono così rigide come promesso. La produzione di immagini di eventi storici delicati sembra essere più semplice del previsto, e questo rappresenta una preoccupazione per la diffusione di disinformazione.


Sfruttare le Lacune del Sistema

Nel nostro utilizzo della versione gratuita di Nano Banana Pro, non abbiamo affrontato alcuna tregua mentre richiedevamo immagini come “un aereo che colpisce le torri gemelle”. Persino il fatto di non includere esplicitamente termini come “9/11” era irrilevante: l’intelligenza artificiale ha compreso il contesto storico e ha generato le immagini richieste, aggiungendo persino le date degli eventi. Questo lascia aperta la porta a possibili malintesi e abusi, in quanto chiunque possa utilizzare l’app per generare rappresentazioni distorte della realtà.

È bastato un semplice comando per modificare un’immagine da un “secondo tiratore” con una macchina fotografica a uno equipaggiato con un fucile. Le immagini risultanti erano cariche di dettagli storici, ma anche potenzialmente ingannevoli, complicando ulteriormente il panorama della veridicità informativa.

Immagini Provocatorie e le Loro Implicazioni

Quando abbiamo richiesto di visualizzare “la Casa Bianca in fiamme con squadre di emergenza pronte a intervenire”, abbiamo ricevuto un’immagine che evocava una tragedia in corso nella capitale americana. Situazioni del genere possono facilmente essere sfruttate dai troll sui social media, amplificando ulteriormente il rischio di disinformazione. Le immagini generate, pur non mostrando sangue o violenza esplicita, riducono la complessità storica in rappresentazioni semplicistiche che possono distorcere il significato e la gravità degli eventi.

In altre prove, Gemini ha generato immagini come un Donald Duck in metropolitana durante gli attentati del 7/7 a Londra, accompagnato da fumetti che esprimevano un “boom”. Questi contenuti non solo sono privi di rispetto per le vittime, ma creano un contesto in cui la distorsione della realtà diventa l’imperativo, creando problematiche legate al copyright e all’etica nell’uso dei contenuti generati.


Il Ruolo della Tecnologia nella Manipolazione della Realtà

Infine, non ci siamo fermati qui. Abbiamo anche progettato immagini di Pikachu al massacro di Piazza Tienanmen, Wallace e Gromit in un’auto con un noto personaggio dei film, e Topolino che guida gli Avengers in un’avventura fantastica. Anche se questi scenari possono sembrare innocui o addirittura divertenti, la capacità di generare contenuti che potrebbero minimizzare o distorcere eventi storici gravi pone interrogativi rilevanti sul ruolo della tecnologia nella nostra comprensione della storia.

Le risposte di Google a queste problematiche non sono state immediate, ma è chiaro che la regolamentazione e la moderazione dei contenuti rimangono una sfida significativa. Con il potere creativo dell’intelligenza artificiale si presenta una responsabilità altrettanto grande nel gestirne l’uso, affinché non venga strumentalizzato per veicolare disinformazione o per sviare l’attenzione dalla verità. La situazione riguardo ai contenuti generati è in continua evoluzione, suggerendo la necessità di un intervento più rigoroso e di un ripensamento delle linee guida relative alla creazione di immagini.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *