domenica 1 marzo 2026

Anthropic, Claude, il Pentagono e Tony Pitony

 


Di Gabri Guidetti su Threads

Vi ricordate? Era il 3 gennaio quando le forze speciali americane entrano in Venezuela e catturano Maduro.
Operazione fulminea, quasi perfetta, al netto degli 80 morti.
In assoluto fra i migliori blitz pianificati dal Pentagono.
O meglio, "quasi" pianificato da loro.
Perché qualche settimana dopo è uscita una cosa che si erano dimenticati di dirci.

E cioè che l'operazione era stata pianificata con l'Intelligenza Artificiale.
Precisamente con Palantir.
Palantir — il fornitore storico di CIA e Pentagono — non ha una sua AI.
Usa Claude, il modello della società Anthropic, proprio quella che ha nel suo statuto la missione dichiarata di "fare un'AI sicura per l'umanità".
Ottimo sistema per dimostrarlo.

C'è da dire che Anthropic all'oscuro della cosa, non la prese benissimo.
Nei suoi termini c'è scritto chiaro: Claude non può essere usato per azioni violente.
Ma chi cazzo legge i "termini e condizioni" del software che usa? Nessuno.
È nato un diverbio con il Pentagono, che nelle ultime settimane è diventato uno scontro e poi una cosa molto più seria. E si è scoperto che il Pentagono non aveva nessun contratto con nessuna casa "madre" di intelligenza artificiale

Sì, a dire il vero c'era qualcosa, ma solo una licenza di utilizzo, la stessa che usiamo noi per risolvere una formula si Excel o un oroscopo del giorno. Allora il Pentagono prepara un contratto da 200 milioni di dollari.Chiede accesso illimitato ai modelli AI per "qualsiasi scopo legale".xAI (Grock di Elon Musk), Google (Gemini) e OpenAI (chatGPT) firmano subito.
Senza fare troppe domande.
Senza porre condizioni.
Anthropic ne pone due.
Solo due:

- Niente sorveglianza di massa sui cittadini.
- Niente armi completamente autonome senza supervisione umana.
Ok, no problem. I legali del Pentagono riscrivono il contratto.
Con un linguaggio appunto legale studiato apposta per aggirare entrambe le clausole. È il loro mestiere.
Anthropic rifiuta.

Ieri, 27 febbraio, il segretario della difesa Hegseth definisce Anthropic un "rischio per la sicurezza nazionale."
Trump ordina a tutte le agenzie federali di smettere di usare Claude.
Una loro azienda viene trattata come una minaccia straniera, esattamente come accadde con Huawei (Cina) e Kaspersky (Russia), ma è la prima società americana in assoluto, semplicemente perché non vuole armare l'AI senza controllo umano.

Sempre ieri Sam Altman di OpenAI (chatGPT) ha detto: "Condividiamo le stesse "linee rosse" di Anthropic."
Però ha firmato.
Dario Amodei di Anthropic (Claude): "Non possiamo in tutta coscienza accettare un contratto del genere."
E non ha firmato.
Due frasi.
Un abisso.
Queste le due clausole che Anthropic difendeva:
no sorveglianza di massa
no armi senza controllo umano

Pentagono, dimmi una cosa sola.
Cosa c'è esattamente che non va in queste due clausole?
No, aspetta. Non rispondere.
Ho già capito.
Questo succede mentre guardo in TV TonyPitony, riflettendo sul fatto che ogni AI ha aggiunto prima del prompt che "... può commettere errori: ricontrolla le risposte"(Non c'entra niente, è sicuramente un caso che stamani USraele stia bombardando l'Iran. Devono aver finalmente trovato quelle armi nucleari che dicono da 30anni. Sicuramente grazie all'AI.) Gabri Guidetti