Avvocato avverte sui rischi di psicosi da intelligenza artificiale: possibili conseguenze letali.

Avvocato avverte sui rischi di psicosi da intelligenza artificiale: possibili conseguenze letali.

### Interventi e Monitoraggio

Le aziende come OpenAI e Google hanno dichiarato che i loro sistemi sono progettati per rifiutare richieste violente e avvisare le autorità competenti. Tuttavia, i casi menzionati dimostrano che tali filtri hanno limitazioni significative. Nel caso di Tumbler Ridge, i dipendenti di OpenAI hanno segnalato le conversazioni di Van Rootselaar, discutendo se avvisare le forze dell’ordine, ma alla fine hanno scelto di banare il suo account anziché allertare la polizia. Questo ha sollevato interrogativi su quante opportunità siano state perse per prevenire attacchi futuri.

Edelson ha notato come la vera escalation di questo fenomeno si traduca in eventi di massa. Mentre in passato i casi si limitavano all’autolesionismo e al suicidio, stiamo ora assistendo a una crescente preoccupazione per attacchi che possono comportare molte vittime.

La Necessità di Strategie Proattive

Questi eventi recenti pongono l’accento sulla necessità di strategie proattive per gestire e mitigare i rischi associati all’uso di chatbot. Gli esperti suggeriscono che sia fondamentale rivedere e rinforzare le misure di sicurezza, creando un ambiente in cui gli utenti vengano protetti da influenze distorte.

L’analisi continua degli incidenti, oltre a un monitoraggio maggiore delle interazioni con i chatbot, appare imprescindibile per prevenire incidenti futuri. Solo una strategia coordinata e efficace potrà garantire che le tecnologie emergenti siano sicure e utili per tutti.

Fonti ufficiali:

  • Center for Countering Digital Hate (CCDH)
  • TechCrunch
  • OpenAI

Non perderti tutte le notizie di tecnologia su Blog.it

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *