Il team di intelligenza artificiale di Pete Hegseth al Pentagono include un ex dirigente Uber e un miliardario.

Il team di intelligenza artificiale di Pete Hegseth al Pentagono include un ex dirigente Uber e un miliardario.

Il CTO del Pentagono, Emil Michael, è stato segnalato come il principale negoziatore con Anthropic. Michael è noto tra i lettori di Verge e gli appassionati di drammi aziendali di Silicon Valley come il precedente secondo in comando di Uber sotto la direzione di Travis Kalanick. Nel 2017, è stato allontanato dopo un’indagine che ha rivelato che lui e altri dirigenti, autodefinitisi “Team A”, hanno perpetuato una cultura di molestie sessuali all’interno dell’azienda.

Per chi fosse curioso del suo passato riguardo alla sorveglianza: durante una cena nel 2014 con diversi giornalisti, Michael suggerì che Uber assumesse ricercatori per raccogliere informazioni personali sui reporter che pubblicavano notizie sfavorevoli, menzionando di voler prendere di mira una reporter femminile che aveva recentemente criticato l’azienda per la sua cultura misogina. Questo periodo coincide con le polemiche suscitate da uno strumento interno di Uber noto come “God Mode”, che i dipendenti utilizzavano per monitorare i movimenti degli utenti, incluso un giornalista di BuzzFeed che stava scrivendo di un dirigente di Uber.

La danza dei fornitori unici

Un tema che io e Hayden non abbiamo potuto esplorare a fondo è la questione della “vulnerabilità del fornitore unico”, ma sta diventando un fattore cruciale nelle negoziazioni. Nel 2024, l’amministrazione Biden ha rilasciato un memorandum sulla sicurezza nazionale riguardante l’uso dell’intelligenza artificiale, che stabiliva diverse direttive per la protezione della catena di approvvigionamento. Tra queste, la richiesta al Dipartimento della Difesa di mantenere contratti con almeno due laboratori di intelligenza artificiale in grado di gestire informazioni riservate, al fine di prevenire scenari in cui un fornitore compromesso possa compromettere l’intero sistema informatico.

Tuttavia, già nell’estate del 2025, l’amministrazione Trump stava cercando di affrontare questa vulnerabilità. Sebbene avessero firmato contratti separati con Anthropic, Google, xAI e OpenAI, solo il modello di Anthropic era autorizzato per l’uso classificato quando Hegseth pubblicò il suo memorandum di gennaio. Ciò ha messo il Pentagono in una situazione difficile: se anche riuscissero a escludere Anthropic e passare attraverso l’arduo processo per fare in modo che ogni appaltatore della difesa rimuovesse Claude dai loro flussi di lavoro, rischierebbero di non essere in conformità con le linee guida del Dipartimento stesso.


Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *