La guerra e l’algoritmo: l’IA di Musk aveva puntato sul 28 febbraio per l’attacco all’Iran

Quando Israele e Stati Uniti hanno lanciato attacchi coordinati contro l’Iran, la notizia si è propagata in pochi minuti. Con la stessa velocità ha iniziato a circolare un altro dettaglio: una piattaforma di intelligenza artificiale aveva “previsto” la data dell’operazione. A raccontarlo è il Jerusalem Post, che nei giorni scorsi aveva promosso un esperimento rivolto alle quattro principali piattaforme di IA: Claude di Anthropic, Gemini di Google, Grok sviluppata da xAI e ChatGPT di OpenAI.

La domanda era la stessa per tutti: quale potesse essere la data di un eventuale attacco israeliano o americano contro l’Iran. Stessi input, esiti differenti. Secondo quanto riportato dal quotidiano israeliano, ogni sistema ha fornito una risposta diversa in base alle informazioni disponibili e agli scenari ipotizzati. Solo Grok, il programma legato a Elon Musk, avrebbe indicato per ben due volte la stessa data: il 28 febbraio.

La piattaforma avrebbe collegato quella previsione all’esito dei colloqui di Ginevra, individuando nella finestra successiva al fallimento o alla chiusura dei negoziati un momento potenzialmente critico. Una deduzione che, alla luce degli attacchi effettivamente avvenuti, ha fatto scattare l’etichetta di “previsione azzeccata”.

Va chiarito che si tratta di un esperimento giornalistico e che nessuna delle piattaforme dispone di capacità divinatorie. I modelli di intelligenza artificiale elaborano scenari sulla base di dati pubblici, dinamiche geopolitiche, precedenti storici e probabilità statistiche. Se Grok ha individuato proprio quella data, lo ha fatto incrociando variabili e contesto, non attingendo a informazioni riservate.

Resta però il dato politico e simbolico: nel pieno di una crisi internazionale, il fatto che una piattaforma associata a Elon Musk abbia indicato la data poi coincisa con l’attacco ha alimentato interrogativi e suggestioni. Claude, Gemini e ChatGPT avevano fornito scenari differenti, senza convergere su un giorno preciso. Grok, invece, avrebbe ripetuto il 28 febbraio in due diverse elaborazioni.

Il caso riapre il dibattito sul ruolo dell’intelligenza artificiale nell’analisi geopolitica. Può un modello anticipare sviluppi militari complessi? O si tratta di una coincidenza resa inevitabile dall’alta probabilità di escalation in una fase già fortemente instabile? Gli stessi esperti ricordano che le IA lavorano su pattern e correlazioni: se i segnali indicano una finestra temporale critica, il sistema può individuare una data plausibile.

Nel racconto del Jerusalem Post, l’esperimento voleva testare proprio questo: la capacità delle piattaforme di leggere il contesto internazionale e trasformarlo in una previsione concreta. Il risultato, almeno nel caso di Grok, ha colpito per la precisione. Ma precisione non significa necessariamente previsione consapevole.

In un’epoca in cui algoritmi e decisioni umane si intrecciano sempre più, l’episodio diventa anche una questione di percezione pubblica. Per alcuni è la prova di un’IA sempre più raffinata nell’interpretare i segnali globali. Per altri è una coincidenza amplificata dal clamore degli eventi.

Di certo, la coincidenza tra la data indicata da Grok e l’effettivo attacco ha trasformato un semplice test comparativo in un caso mediatico. E mentre la crisi in Medio Oriente resta al centro dell’attenzione internazionale, anche l’intelligenza artificiale finisce, ancora una volta, sotto i riflettori.