L’insidia che Anthropic ha creato per se stessa: opportunità e rischi nel futuro dell’IA.

L’insidia che Anthropic ha creato per se stessa: opportunità e rischi nel futuro dell’IA.

L’insidia che Anthropic ha creato per se stessa: opportunità e rischi nel futuro dell’IA.

Il Caso Anthropic e le Conseguenze sulla Sicurezza Nazionale

Venerdì pomeriggio, durante un’intervista, una notizia ha catturato la mia attenzione: l’amministrazione Trump ha interrotto i rapporti con Anthropic, un’azienda di intelligenza artificiale di San Francisco fondata nel 2021 da Dario Amodei e altri ex ricercatori di OpenAI, che avevano lasciato l’azienda a causa di preoccupazioni sulla sicurezza. Il Segretario alla Difesa Pete Hegseth ha fatto riferimento a una legge sulla sicurezza nazionale, mirata a contrastare le minacce alle forniture straniere, per escludere l’azienda da contratti con il Pentagono. Questo provvedimento è stato preso dopo che Amodei ha rifiutato di consentire l’uso della tecnologia di Anthropic per la sorveglianza di massa dei cittadini statunitensi o per droni autonomi armati capaci di selezionare e uccidere obiettivi senza input umano.

Anthropic si trova ora a perdere un contratto del valore di 200 milioni di dollari, oltre a essere escluso da collaborazioni con altri appaltatori della difesa. Dopo un post di Trump su Truth Social, in cui chiedeva a tutte le agenzie federali di interrompere immediatamente l’uso della tecnologia di Anthropic, l’azienda ha annunciato l’intenzione di fare causa al Pentagono, definendo la designazione di rischio per la catena di approvvigionamento “legalmente infondata” e “mai applicata pubblicamente a un’azienda americana”.


Massima Sicurezza o Marketing? La Doppia Faccia di Anthropic

Max Tegmark, fisico svedese-americano e professore al MIT, ha messo in guardia per anni riguardo alla corsa per costruire sistemi di AI sempre più potenti, avvertendo che il mondo non riesce a governarli adeguatamente. Nel 2014 ha fondato il Future of Life Institute e, nel 2023, ha organizzato una lettera aperta firmata da oltre 33.000 persone, tra cui Elon Musk, chiedendo una pausa nello sviluppo di AI avanzata.

Per Tegmark, la crisi di Anthropic è il risultato delle stesse scelte compiute dall’azienda. L’industria ha scelto di opporsi a regole vincolanti, promettendo di autogovernarsi in modo responsabile. Questo approccio ha portato a una situazione in cui i leader del settore — compresi Anthropic, OpenAI e Google DeepMind — hanno infranto i loro stessi impegni. Questa settimana, Anthropic ha addirittura abbandonato il principio chiave della propria promessa di sicurezza, dichiarando di non rilasciare sistemi AI sempre più potenti finché non fossero certi che non avrebbero causato danni.

Nel contesto attuale, Tegmark sottolinea l’assenza di regole, dichiarando che non c’è molto a proteggere queste aziende. Di seguito sono riportate alcune delle sue considerazioni, estratte e riordinate per chiarezza.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *