Vi ricordate? Era il 3 gennaio quando le forze speciali americane entrano in Venezuela e catturano Maduro.
Operazione fulminea, quasi perfetta, al netto degli 80 morti.
In assoluto fra i migliori blitz pianificati dal Pentagono.
O meglio, "quasi" pianificato da loro.
Perché qualche settimana dopo è uscita una cosa che si erano dimenticati di dirci.
E cioè che l'operazione era stata pianificata con l'Intelligenza Artificiale.
Precisamente con Palantir.
Palantir — il fornitore storico di CIA e Pentagono — non ha una sua AI.
Usa Claude, il modello della società Anthropic, proprio quella che ha nel suo statuto la missione dichiarata di "fare un'AI sicura per l'umanità".
Ottimo sistema per dimostrarlo.
Nei suoi termini c'è scritto chiaro: Claude non può essere usato per azioni violente.
Ma chi cazzo legge i "termini e condizioni" del software che usa? Nessuno.
È nato un diverbio con il Pentagono, che nelle ultime settimane è diventato uno scontro e poi una cosa molto più seria. E si è scoperto che il Pentagono non aveva nessun contratto con nessuna casa "madre" di intelligenza artificiale
Senza fare troppe domande.
Senza porre condizioni.
Anthropic ne pone due.
Solo due:
- Niente armi completamente autonome senza supervisione umana.
Ok, no problem. I legali del Pentagono riscrivono il contratto.
Con un linguaggio appunto legale studiato apposta per aggirare entrambe le clausole. È il loro mestiere.
Anthropic rifiuta.
Trump ordina a tutte le agenzie federali di smettere di usare Claude.
Una loro azienda viene trattata come una minaccia straniera, esattamente come accadde con Huawei (Cina) e Kaspersky (Russia), ma è la prima società americana in assoluto, semplicemente perché non vuole armare l'AI senza controllo umano.
Però ha firmato.
Dario Amodei di Anthropic (Claude): "Non possiamo in tutta coscienza accettare un contratto del genere."
E non ha firmato.
Due frasi.
Un abisso.
Queste le due clausole che Anthropic difendeva:— no sorveglianza di massa
— no armi senza controllo umano
Cosa c'è esattamente che non va in queste due clausole?
No, aspetta. Non rispondere.
Ho già capito.
Questo succede mentre guardo in TV TonyPitony, riflettendo sul fatto che ogni AI ha aggiunto prima del prompt che "... può commettere errori: ricontrolla le risposte"(Non c'entra niente, è sicuramente un caso che stamani USraele stia bombardando l'Iran. Devono aver finalmente trovato quelle armi nucleari che dicono da 30anni. Sicuramente grazie all'AI.) Gabri GuidettiIl Pentagono ha usato Anthropic negli attacchi in Iran nonostante il divieto imposto da Trump https://t.co/6zgliYYENe
— Gibo Gori (@GibGalad) March 1, 2026
