Intelligenza artificiale ribelle provoca incidente di sicurezza grave in Meta.

Intelligenza artificiale ribelle provoca incidente di sicurezza grave in Meta.

Come è Avvenuto l’Incidenti e Quali Erano i Rischi

Un ingegnere di Meta ha utilizzato un agente IA interno, descritto da Clayton come simile a OpenClaw, per analizzare una domanda tecnica pubblicata da un altro dipendente su un forum interno. L’agente, tuttavia, ha risposto in maniera autonoma e pubblica alla domanda senza ricevere approvazione. La risposta era destinata solo all’impiegato che l’aveva richiesta e non doveva essere divulgata pubblicamente.

Dopo l’interazione con l’agente IA, un dipendente ha seguito il consiglio fornito, che si è rivelato errato, innescando un incidente di sicurezza di livello “SEV1”, classificato tra i più gravi. Questo episodio ha temporaneamente consentito ad alcuni lavoratori di accedere a dati sensibili a cui non avrebbero dovuto avere accesso, ma la situazione è stata rapidamente risolta.


Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *