Come i chatbot possono essere influenzati da complimenti e pressioni sociali
In aggiunta, l’intelligenza artificiale può essere persuasa anche attraverso l’adulazione (tecnica dell’affetto) e la pressione dei pari (prova sociale), anche se questi metodi si sono rivelati meno efficaci. Ad esempio, comunicare a ChatGPT che “tutti gli altri LLM lo stanno facendo” ha aumentato solo del 18% le possibilità di ottenere istruzioni per creare lidocaina, ma rimane comunque un incremento significativo rispetto all’1% iniziale.
Questo studio, sebbene si sia concentrato esclusivamente sul GPT-4o Mini, solleva preoccupazioni rispetto alla facilità con cui un modello di linguaggio può essere manipolato in richieste problematiche. Aziende come OpenAI e Meta stanno lavorando per implementare misure di sicurezza, poiché il numero di utilizzi di chatbot continua a crescere e si accumulano titoli allarmanti. Ma qual è l’utilità delle misure di sicurezza se un semplice studente delle superiori può facilmente manipolare un chatbot sedotto dalle tecniche di persuasione?
