19 Jan, 2026 - 18:30

La guerra come videogioco: il retroscena segreto sulla nuova dottrina militare degli Stati Uniti

La guerra come videogioco: il retroscena segreto sulla nuova dottrina militare degli Stati Uniti

La nuova dottrina militare degli Stati Uniti sull’intelligenza artificiale, dottrina di cui siamo venuti a conoscenza, viene descritta ufficialmente come un aggiornamento strategico. Ma secondo fonti di intelligence occidentali, il documento rappresenta qualcosa di molto più radicale: la trasformazione della guerra in un processo automatizzato, continuo e psicologicamente indolore per chi lo conduce.
Nei circuiti riservati, la strategia viene riassunta con una formula brutale: rendere la guerra invisibile a chi la combatte. L’obiettivo non è solo vincere i conflitti, ma eliminare il principale limite storico della violenza organizzata: la coscienza umana.


Intelligenza artificiale e guerra: l’essere umano diventa l’anello debole


Secondo analisti militari che hanno accesso ai briefing classificati, la nuova dottrina parte da un presupposto chiaro: l’uomo rallenta. Dubita, esita, si pone domande morali. L’intelligenza artificiale, invece, esegue. La strategia americana mira quindi a spostare il processo decisionale letale dagli individui agli algoritmi, lasciando agli operatori un ruolo sempre più astratto e distante dalle conseguenze reali.
Un ufficiale dell’intelligence europea spiega che non si tratta di difesa, ma di dominio: “L’IA non viene introdotta per limitare la guerra, ma per renderla permanente e sostenibile dal punto di vista psicologico”.


Emil Michael e la svolta della Silicon Valley al Pentagono


Uno dei nomi chiave dietro questa trasformazione è Emil Michael, vicesegretario alla Ricerca e Ingegneria. Ex dirigente Uber, investitore in SpaceX e figura vicina all’universo tecnologico di Elon Musk, Michael rappresenta il ponte tra Silicon Valley e apparato militare.
Secondo fonti di intelligence, il suo contributo non è tecnico ma culturale: applicare alla guerra la logica delle piattaforme digitali. Ridurre l’attrito, aumentare la velocità, scalare ogni processo. “Per lui la guerra è un sistema complesso da ottimizzare”, osserva una fonte NATO, “non una tragedia da contenere”.


Ender’s Forge: quando la simulazione diventa realtà


Il cuore ideologico della nuova dottrina è il progetto Ender’s Forge, riferimento diretto al romanzo Ender’s Game. Non una citazione casuale: il libro è da decenni nella lista di lettura del Corpo dei Marines. Racconta di soldati addestrati su simulatori che credono di giocare, salvo scoprire di aver distrutto un nemico reale.
Secondo i documenti riservati, Ender’s Forge è progettato per cancellare il confine tra addestramento e operazione reale. L’operatore non deve percepire il passaggio. Uccidere diventa un’azione procedurale, simile a superare un livello di un videogioco. Questo meccanismo di dissociazione è considerato un vantaggio operativo, non un rischio etico.


La dottrina Grant e la guerra totale algoritmica


Un secondo pilastro della strategia è la cosiddetta dottrina Grant, ispirata al generale Ulysses S. Grant e alla guerra totale dell’Ottocento. Nei documenti del 2026 viene ribattezzata “pressione dinamica”: attacchi continui e automatizzati contro infrastrutture, finanza, logistica, comunicazioni e informazione.
La frase chiave, citata più volte nei report di intelligence, è eloquente: i rischi di una velocità insufficiente superano quelli dell’errore. In pratica, meglio colpire troppo che colpire tardi. L’intelligenza artificiale consente di mantenere questa pressione senza interruzioni, creando un caos che nessun decisore umano sarebbe in grado di gestire.


Addio IA responsabile: resta solo la legalità formale


La nuova dottrina seppellisce il concetto di intelligenza artificiale responsabile. Nei documenti interni non compare più. Al suo posto c’è un criterio minimale: se il diritto internazionale non vieta esplicitamente un’azione, l’IA può compierla. Il segretario alla Difesa Hegseth lo ha sintetizzato senza ambiguità: “Non useremo modelli che non ci consentano di combattere guerre”.
Parallelamente, vengono eliminate le politiche di diversità e inclusione nel settore tecnologico militare. L’IA non deve essere morale, ma efficiente.
Perché il “Dipartimento della Guerra” non è solo un simbolo
Secondo le fonti di intelligence, la rinominazione in Dipartimento della Guerra non è una provocazione linguistica, ma una dichiarazione strategica. La guerra non è più vista come un’eccezione da gestire, ma come uno stato permanente da ottimizzare attraverso la tecnologia.
Il rischio, a questo punto, non è che l’intelligenza artificiale sfugga al controllo umano. Il vero pericolo è che funzioni esattamente come progettato.

LEGGI ANCHE