sabato 7 marzo 2026

II barattolo di manionese e la birra (aggiornamento)


Un professore, prima di iniziare la sua lezione di filosofia, pose alcuni oggetti davanti a sé, sulla cattedra. Senza dire nulla, quando la lezione iniziò, prese un grosso barattolo di maionese vuoto e lo riempì con delle palline da golf. Domandò quindi ai suoi studenti se il barattolo fosse pieno ed essi risposero di si.


Allora, il professore rovesciò dentro il barattolo una scatola di sassolini, scuotendolo leggermente. I sassolini occuparono gli spazi fra le palline da golf. Domandò quindi, di nuovo, ai suoi studenti se il barattolo fosse pieno ed essi risposero di si.

Il professore, rovesciò dentro il barattolo una scatola di sabbia. Naturalmente, la sabbia occupò tutti gli spazi liberi. Egli domandò ancura una volta agli studenti se il barattolo fosse pieno ed essi risposero con un si unanime.

Il professore tirò fuori da sotto la cattedra un bicchiere di birra e lo rovesciò interamente dentro il barattolo, riempiendo tutto lo spazio fra i granelli di sabbia. Gli studenti risero!

“Ora”, disse il professore quando la risata finì, “vorrei che voi consideraste questo barattolo la vostra vita.

Le palline da golf sono le cose importanti; la vostra famiglia, i vostri figli, la vostra salute, i vostri amici e le cose che preferite; cose che se rimanessero dopo che tutto il resto fosse perduto riempirebbero comunque la vostra esistenza.

“I sassolini sono le altre cose che contano, come il vostro lavoro, la vostra casa, l’automobile. La sabbia è tutto il resto, le piccole cose.”

“Se metteste nel barattolo per prima la sabbia”, continuò, “non resterebbe spazio per i sassolini e per le palline da golf. Lo stesso accade per la vita. Se usate tutto il vostro tempo e la vostra energia per le piccole cose, non vi potrete mai dedicare alle cose che per voi sono veramente importanti.

“Curatevi delle cose che sono fondamentali per la vostra felicità. Giocate con i vostri figli, tenete sotto controllo la vostra salute. Portate il vostro partner a cena fuori. Giocate altre 18 buche! Fatevi un altro giro sugli sci! C’è sempre tempo per sistemare la casa e per buttare l’immondizia. Dedicatevi prima di tutto alle palline da golf, le cose che contano sul serio. 

Definite le vostre priorità, tutto il resto è solo sabbia”.

Una studentessa alzò la mano e chiese che cosa rappresentasse la birra. Il professore sorrise. “Sono contento che tu l’abbia chiesto. Serve solo a dimostrare che per quanto possa sembrare piena la tua vita: c’è sempre spazio per un bicchiere di birra con un amico”.



domenica 1 marzo 2026

Anthropic, Claude, il Pentagono e Tony Pitony

 


Di Gabri Guidetti su Threads

Vi ricordate? Era il 3 gennaio quando le forze speciali americane entrano in Venezuela e catturano Maduro.
Operazione fulminea, quasi perfetta, al netto degli 80 morti.
In assoluto fra i migliori blitz pianificati dal Pentagono.
O meglio, "quasi" pianificato da loro.
Perché qualche settimana dopo è uscita una cosa che si erano dimenticati di dirci.

E cioè che l'operazione era stata pianificata con l'Intelligenza Artificiale.
Precisamente con Palantir.
Palantir — il fornitore storico di CIA e Pentagono — non ha una sua AI.
Usa Claude, il modello della società Anthropic, proprio quella che ha nel suo statuto la missione dichiarata di "fare un'AI sicura per l'umanità".
Ottimo sistema per dimostrarlo.

C'è da dire che Anthropic all'oscuro della cosa, non la prese benissimo.
Nei suoi termini c'è scritto chiaro: Claude non può essere usato per azioni violente.
Ma chi cazzo legge i "termini e condizioni" del software che usa? Nessuno.
È nato un diverbio con il Pentagono, che nelle ultime settimane è diventato uno scontro e poi una cosa molto più seria. E si è scoperto che il Pentagono non aveva nessun contratto con nessuna casa "madre" di intelligenza artificiale

Sì, a dire il vero c'era qualcosa, ma solo una licenza di utilizzo, la stessa che usiamo noi per risolvere una formula si Excel o un oroscopo del giorno. Allora il Pentagono prepara un contratto da 200 milioni di dollari.Chiede accesso illimitato ai modelli AI per "qualsiasi scopo legale".xAI (Grock di Elon Musk), Google (Gemini) e OpenAI (chatGPT) firmano subito.
Senza fare troppe domande.
Senza porre condizioni.
Anthropic ne pone due.
Solo due:

- Niente sorveglianza di massa sui cittadini.
- Niente armi completamente autonome senza supervisione umana.
Ok, no problem. I legali del Pentagono riscrivono il contratto.
Con un linguaggio appunto legale studiato apposta per aggirare entrambe le clausole. È il loro mestiere.
Anthropic rifiuta.

Ieri, 27 febbraio, il segretario della difesa Hegseth definisce Anthropic un "rischio per la sicurezza nazionale."
Trump ordina a tutte le agenzie federali di smettere di usare Claude.
Una loro azienda viene trattata come una minaccia straniera, esattamente come accadde con Huawei (Cina) e Kaspersky (Russia), ma è la prima società americana in assoluto, semplicemente perché non vuole armare l'AI senza controllo umano.

Sempre ieri Sam Altman di OpenAI (chatGPT) ha detto: "Condividiamo le stesse "linee rosse" di Anthropic."
Però ha firmato.
Dario Amodei di Anthropic (Claude): "Non possiamo in tutta coscienza accettare un contratto del genere."
E non ha firmato.
Due frasi.
Un abisso.
Queste le due clausole che Anthropic difendeva:
no sorveglianza di massa
no armi senza controllo umano

Pentagono, dimmi una cosa sola.
Cosa c'è esattamente che non va in queste due clausole?
No, aspetta. Non rispondere.
Ho già capito.
Questo succede mentre guardo in TV TonyPitony, riflettendo sul fatto che ogni AI ha aggiunto prima del prompt che "... può commettere errori: ricontrolla le risposte"(Non c'entra niente, è sicuramente un caso che stamani USraele stia bombardando l'Iran. Devono aver finalmente trovato quelle armi nucleari che dicono da 30anni. Sicuramente grazie all'AI.) Gabri Guidetti