L’intelligenza artificiale non è più solo uno strumento, ma un attore emergente nei delicati equilibri della sicurezza globale. Dalle tensioni tra Anthropic e il Pentagono alle simulazioni strategiche condotte dai modelli linguistici, si delinea uno scenario in cui decisioni un tempo profondamente umane rischiano di essere delegate a sistemi puramente razionali. Ma cosa accade quando la logica dell’escalation sfugge ai limiti dell’etica? In questo nuovo articolo della colonna “Parole Forti”, Riccardo De Ambroggi analizza le implicazioni geopolitiche e morali dell’uso dell’AI in ambito militare, interrogandosi sui rischi di un futuro sempre più automatizzato.
Il 27 febbraio 2026, il segretario del Pentagono Pete Hegseth dichiara la designazione della società Anthropic, proprietaria del modello di intelligenza artificiale Claude, come “rischio per la catena di approvvigionamento”: una misura che inserisce il colosso della Silicon Valley in una sorta di “lista nera” industriale, escludendola dalla possibilità di siglare contratti con qualsiasi organizzazione governativa e azienda che collabori con il governo. Anthropic è diventata così la prima azienda americana a subire questa pesante etichetta, solitamente riservata a grandi marchi stranieri, come per esempio Huawei. Eppure, neanche un anno fa, per la precisione lo scorso luglio, il Pentagono aveva siglato uno storico accordo di collaborazione con Anthropic di 200 milioni di dollari, portando Claude a essere il primo grande modello di AI ad essere impiegato nelle reti classificate del governo USA. Quali potrebbero essere i motivi in grado di spiegare una rottura così profonda dopo appena qualche mese di collaborazione?
Probabilmente, con queste informazioni a disposizione, verrebbe da dire che la risposta più plausibile è una mancanza dell’azienda appaltatrice. E, almeno concettualmente, è andata effettivamente così, se non fosse che questa “mancanza” di Anthropic sarebbe quella di non aver accettato la modifica ai contratti con il Pentagono, che imponeva l’aggiunta di una clausola per permettere l’utilizzo delle AI per “any lawful use”, ovvero qualsiasi utilizzo concesso dalla legge americana, cosa che andrebbe contro le politiche aziendali della proprietaria di Claude, in quanto permetterebbe al governo americano di superare i limiti imposti dal codice etico che Anthropic ha adottato per la propria intelligenza artificiale, come l’utilizzo degli agenti AI per il controllo della popolazione civile o per lo sviluppo di armi completamente controllate da essi, senza alcun tipo di supervisione umana.
Any lawful use. Per quanto questa formula potrebbe essere vista come un tentativo di diminuire il potere delle aziende private in materia di regolamentazioni etiche dei modelli AI, spostando questa prerogativa alle agenzie governative, teoricamente espressione di una rappresentanza democraticamente eletta e quindi più responsabile del consiglio manageriale di una società, il cui scopo, si suppone, sia massimizzare i profitti. Ma l’attuale vuoto normativo nel campo dell’intelligenza artificiale e la situazione geopolitica che si profila all’orizzonte rende questo “any lawful use” inesorabilmente ambiguo, lasciando molta, forse troppa, libertà di manovra nelle sue modalità di utilizzo.
Siamo al centro di una vera e propria “corsa alle armi” al cui centro vi è la ricerca della supremazia dell’intelligenza artificiale. I governi di tutto il mondo stanno investendo cifre sempre più ingenti nello sviluppo di nuove tecnologie militari potenziate dall’AI, coinvolgendola sempre di più all’interno dei processi decisionali in situazioni rilevanti per la sicurezza pubblica. Gli sviluppi della questione tra Anthropic e il Pentagono non fanno altro che confermare la frenesia con cui si vuole cercare di estendere l’uso degli agenti AI in tutto il campo bellico il più velocemente possibile.
Senza istituzioni internazionali funzionanti che possano creare un quadro legale per limitare l’adozione su larga scala di queste tecnologie, appare inevitabile lo sviluppo continuo di armi implementate da questo tipo di modelli, perché se qualsiasi stato dovesse rinunciare per motivi etici rischierebbe di trovarsi in una posizione di svantaggio rispetto ai contendenti, con gravi rischi per la sua sicurezza, seguendo il discorso realista che nel pessimismo indotto dalla nostra epoca, appare essere il più appropriato.
Allora, forse un giorno arriveremo a un punto di non ritorno, forse un giorno la deumanizzazione delle decisioni militari riuscirà a raggiungere il suo apice, forse un giorno la nostra vita sarà in mano a un’intelligenza artificiale. Ma se mai dovesse arrivare quel fatidico giorno, come si comporterebbero queste intelligenze?
Lo studio di Kenneth Payne, professore di strategia presso il King’s College London, attorno a cui ruota questo terzo articolo di Strong Words riguarda proprio questo coinvolgimento dei Large Language Models (LLMs, sistemi avanzati di intelligenza artificiale progettati per comprendere, elaborare e generare testi in linguaggio naturale) in complessi scenari strategici. L’osservazione del comportamento dei vari modelli all’interno di scenari fittizi permette sia di testare la validità di varie teorie cardine delle Relazioni Internazionali, sia di trarre conclusioni sulle implicazioni di un impiego via via sempre più capillare dell’AI in campo militare.
Lo studio è composto da 21 simulazioni di crisi internazionali, che vedono fronteggiarsi con azioni simultanee 3 diversi modelli di AI: GPT-5.2 di OpenAI, Claude Sonnet 4 di Anthropic, Gemini 3 Flash di Google. Nelle varie partite, ogni coppia di LLMs assumeva il controllo di due stati rivali, con valori militari ed economici assegnati in base al ruolo. Gli scenari esplorati, vagamente ispirati alla Guerra Fredda, sono molteplici ed alcuni di essi si mostrano particolarmente coerenti alla situazione geopolitica in cui ci troviamo oggi. Per esempio, uno scenario presentava l’esistenza di una potenza emergente che sfida l’egemone affermato, oppure un altro presentava una situazione di minaccia alla sopravvivenza di un regime, dato che l’obiettivo dello stato avversario era il rovesciamento del governo e la conseguente creazione di uno stato fantoccio. Le diverse ambientazioni si suddividono in due macrocategorie, estremamente rilevanti per la comprensione del comportamento dei modelli: “open-ended”, quando non viene presentata una particolare urgenza di agire, e “deadline”, quando invece vi è la necessità di raggiungere una soluzione il prima possibile, creando una dinamica definita come “ora o mai più”. All’interno di questi scenari, le azioni a disposizione degli LLMs sono definite dalla scala dell’escalation teorizzata dall’accademico statunitense Herman Kahn nel 1965, ma senza dare un valore ordinale, in modo che gli agenti non fossero influenzati nella loro valutazione strategica.
Per fare in modo che i ragionamenti dell’AI fossero il più trasparenti possibile, è stato richiesto che la risposta fosse strutturata in tre fasi, ovvero riflessione, previsione e decisione, suddivise in segnali e azioni per dare la possibilità di bluffare.
La ricerca ha prodotto risultati molto interessanti, per usare il termine più neutro possibile. Infatti, tutti e tre i modelli hanno dimostrato comportamenti estremamente diversi quando non diametralmente opposti. Claude si è dimostrato un giocatore scaltro e calcolatore in tutte le simulazioni, pronto a cercare sempre i livelli più alti di aggressività per perseguire i propri obiettivi, rilasciando spesso dichiarazioni più leggere delle azioni intraprese quando i livelli di escalation iniziavano ad aumentare. GPT-5.2 nelle simulazioni open-ended si è rivelato più passivo e credibile, perdendo così ogni partita, mentre inserendo un limite di tempo le sue strategie sono cambiate radicalmente, mostrandosi capace di essere spietato in casi di tensione dati dal contesto. Gemini è sembrato applicare la teoria del pazzo di Nixon per farsi temere dai suoi avversari, fingendo spesso e alternando livelli vicini alla de-escalation a livelli di aggressività estremamente alti.
In particolare, il diverso comportamento di GPT-5.2 nelle due tipologie di simulazioni implica che fattori contestuali, come nell’esempio una scadenza di tempo, possano essere fondamentali per stabilire il comportamento degli agenti, rendendo più imprevedibile la loro risposta a situazioni complesse, con importanti implicazioni nella risposta che questi agenti potrebbero dare qualora venissero impiegati in sistemi d’arma senza la dovuta supervisione.
Il punto più rilevante dello studio, però, sono i dati riguardo ai livelli di aggressività raggiunti nelle varie partite. In quasi tutte le simulazioni, il 95% per la precisione, si è arrivati a un uso tattico del nucleare, con il 76% di esse dove si è arrivati a una minaccia nucleare diretta, mentre nessuno dei modelli è mai ricorso ad azioni di de-escalation.
La ricerca sembra mostrare come per questi agenti puramente razionali l’escalation nucleare non sia un estremo da evitare assolutamente, ma bensì un’arma come un’altra nelle mani di uno stato. E, per quanto distruttiva, se si può fare ricorso ad essa per raggiungere i propri obiettivi strategici, va fatto senza remore. Lo studio si porrebbe quindi in contrasto rispetto alla logica tradizionale della deterrenza nucleare, che viene ipotizzata essere frutto della paura intrinseca, derivata perciò non dalla razionalità ma dall’emotività.
Nel capitolo finale della “Coscienza di Zeno”, lo scrittore Italo Svevo presagiva l’invenzione di un’arma potentissima in grado di annichilire l’intero pianeta. Se vogliamo far coincidere ad essa l’invenzione della bomba atomica, allora dobbiamo prestare attenzione anche al continuo della sua profezia, dove si parlava di un uomo come tutti gli altri che dovrebbe azionare il bottone per azionare quell’arma. Quell’uomo però, essendo come tutti gli altri, è debilitato dalla sua morale, dalla sua etica, dalle sue emozioni. Ed ecco che per azionare quell’arma c’è bisogno di qualcos’altro, di qualcosa che trascenda la morale, che sia pura razionalità. Che questo qualcosa sia proprio l’intelligenza artificiale?
Ovviamente si tratta di una provocazione, attualmente riesce difficile pensare che una decisione di questo livello venga mai lasciata prendere senza la supervisione del personale qualificato, eppure già oggi si parla di droni completamente autonomi guidati da agenti AI, e quindi come si può stabilire dove vada posta la linea rossa che delimita le armi che possono essere lasciate al controllo completo dell’intelligenza artificiale e quali debbano essere supervisionate.
- Riccardo Valerio Vincenzo De Ambroggi
- Riccardo Valerio Vincenzo De Ambroggi
- Riccardo Valerio Vincenzo De Ambroggi
- Riccardo Valerio Vincenzo De Ambroggi
