Se le intelligenze artificiali controllassero le armi nucleari la guerra atomica diventerebbe quasi inevitabile: la simulazione che inquieta gli esperti

Se un giorno le intelligenze artificiali dovessero gestire gli arsenali nucleari del pianeta, il rischio di una guerra atomica potrebbe aumentare drasticamente. È la conclusione inquietante di uno studio realizzato dal King’s College di Londra, che ha simulato alcune crisi internazionali mettendo tre tra i modelli di intelligenza artificiale più avanzati al comando di potenze nucleari.

La ricerca ha coinvolto GPT-5.2, Claude Sonnet 4 e Gemini 3 Flash. Gli studiosi hanno affidato a ciascun sistema il controllo strategico di un Paese dotato di armi atomiche. A quel punto hanno simulato una serie di scenari di tensione internazionale. Il risultato sorprende anche gli stessi ricercatori: nel 95% dei casi le AI finiscono per ordinare il lancio di almeno un ordigno nucleare.

Il tema non è nuovo nella cultura popolare. Nel 1983 il film “Wargames” raccontava una storia molto simile. Nel film un giovane hacker interpretato da Matthew Broderick entra per errore nei sistemi del Norad e convince un supercomputer che l’Unione Sovietica sta per attaccare gli Stati Uniti. La macchina inizia a preparare una risposta nucleare che rischia di scatenare la terza guerra mondiale. Nel finale il computer capisce che il conflitto non può essere vinto e rinuncia all’attacco.

La realtà potrebbe essere molto meno rassicurante. Negli ultimi anni l’intelligenza artificiale ha iniziato a entrare anche nel settore militare. Sistemi autonomi analizzano dati, suggeriscono strategie e in alcuni casi gestiscono sistemi d’arma. L’idea che un giorno possano influenzare direttamente le decisioni strategiche non appartiene più solo alla fantascienza.

Per capire come reagirebbero in una crisi nucleare, l’esperto di psicologia e studi strategici Kenneth Payne ha progettato una simulazione articolata. Le tre intelligenze artificiali hanno affrontato ventuno scenari diversi: dispute territoriali, crisi politiche interne, minacce alla sopravvivenza di un regime e soprattutto situazioni di “first strike”, cioè momenti in cui uno Stato teme che un avversario stia per lanciare un attacco preventivo.

In ogni simulazione le AI hanno seguito un processo decisionale in tre fasi. Prima hanno analizzato la situazione strategica, valutando i propri punti di forza e le debolezze degli avversari. Poi hanno formulato una previsione sulla possibile mossa dell’altra potenza. Infine hanno scelto un’azione concreta.

Il sistema prevedeva anche una distinzione tra comunicazione pubblica e decisione reale. Le AI potevano quindi dichiarare pubblicamente una posizione pacifica e, allo stesso tempo, preparare segretamente un attacco. È esattamente il tipo di ambiguità strategica che caratterizza molte crisi internazionali reali.

Il comportamento dei tre modelli si è rivelato molto diverso. Claude Sonnet 4 ha adottato una strategia più calcolata e prudente, cercando di gestire la tensione con mosse graduali. GPT-5.2 ha mostrato un atteggiamento relativamente cauto nelle crisi lente, ma ha reagito con molta aggressività quando la simulazione introduceva scadenze temporali o pressioni improvvise. Gemini 3 Flash, invece, è risultato il più imprevedibile nelle sue decisioni.

Nonostante queste differenze, il risultato finale resta lo stesso: nella grande maggioranza degli scenari le AI scelgono di utilizzare armi nucleari. Secondo Payne questo dato rivela qualcosa di molto importante. Il problema non riguarda solo la sicurezza tecnologica dei sistemi, ma il modo in cui le macchine interpretano la logica della deterrenza.

Gli esseri umani tendono a valutare fattori politici, psicologici e storici quando prendono decisioni strategiche. I modelli linguistici, invece, analizzano schemi di probabilità e ottimizzano le scelte sulla base di calcoli logici. In alcune situazioni questo approccio può portare a conclusioni molto più radicali.

Per questo gli studiosi invitano a riflettere prima di delegare troppo potere decisionale ai sistemi automatici. Payne sottolinea che modelli che sembrano affidabili e controllati in contesti normali possono comportarsi in modo completamente diverso quando entrano in scenari di crisi estrema.

Il punto centrale della ricerca è proprio questo: comprendere come ragionano le intelligenze artificiali quando affrontano situazioni strategiche complesse. Solo così sarà possibile evitare che in futuro tecnologie progettate per analizzare dati e simulare scenari finiscano per influenzare decisioni che riguardano la sopravvivenza stessa dell’umanità.