Punti chiave
Un Garmin per il cervello dei soldati
La società Neurable, startup di neurotecnologie di consumo, ha siglato un accordo con la U.S. Air Force per studiare se cuffie dotate di elettrodi possano monitorare la “forma cognitiva” dei militari, così come gli smartwatch Garmin tracciano la forma fisica dei membri della Space Force. Il progetto, annunciato a gennaio 2026, vale 1,2 milioni di dollari e si inserisce in un mercato globale delle interfacce cervello-computer stimato in 3 miliardi.
Il dispositivo al centro dell’iniziativa è una versione militarizzata delle cuffie MW75 Neuro, sviluppate con il marchio di lusso Master & Dynamic. Integrano sensori EEG in tessuto e inchiostri conduttivi che misurano l’attenzione in tempo reale. Quando l’algoritmo rileva un calo della concentrazione, un’app suggerisce una pausa: il claim commerciale è “il Fitbit del cervello”. Adam Molnar, cofondatore di Neurable, spiega che la versione militare adatterà la tecnologia a caschi, cuffie antirumore e protezioni acustiche già in uso. L’obiettivo è correlare onde cerebrali e prestazioni sotto stress, per esempio testando la memoria in condizioni di deprivazione del sonno. La parola chiave, ripetuta dai portavoce, è readiness, la prontezza operativa del combattente.
Dalla DARPA al campo di battaglia cognitivo
Il Pentagono lavora su interfacce neurali almeno dagli anni Settanta, quando i primi programmi puntavano a restituire la vista o a controllare protesi di braccia. Oggi lo scenario è radicalmente mutato. La DARPA, con il programma Next-Generation Nonsurgical Neurotechnology, cerca interfacce bidirezionali non chirurgiche capaci di consentire a soldati abili di pilotare droni, coordinare sistemi di difesa cibernetica e gestire più compiti in missioni complesse.
Parallelamente, programmi come il Targeted Neuroplasticity Training e l’Alert Warrior Enablement hanno esplorato la stimolazione cerebrale per accelerare l’apprendimento e aumentare la vigilanza in combattimento. Le proiezioni di lungo periodo parlano di una rete uomo-macchina integrata, con comandi impartiti tramite il pensiero e simulazioni adattive basate sull’attività neurale del soldato.
La startup Neurable, peraltro, non è un attore improvvisato. Nata come progetto di ricerca per l’U.S. Army, ha raccolto di recente 35 milioni di dollari in un round di serie A, portando la raccolta totale a 65 milioni, con una forte spinta anche verso l’e-sport e il gaming competitivo. Il confine tra applicazione militare e consumo quotidiano diventa sempre più poroso.
La promessa del supersoldato

Per gli ufficiali dell’Air Force Research Laboratory la tecnologia risponde a un’esigenza concreta. William Aue, responsabile della sezione di neuroscienze cognitive del 711th Human Performance Wing, ammette che molti militari accetterebbero volentieri un monitor di fatica e stato cognitivo se pensassero di migliorare così l’efficacia della missione. L’idea è quella di un neurofeedback personalizzato, capace di insegnare al cervello a rientrare nella finestra ottimale di prestazione.
Molnar paragona la logica a quella dei cardiofrequenzimetri. Gli avvisi informativi non impongono uno stato mentale, ma forniscono consapevolezza sul carico cognitivo e sulla fatica. La ricaduta potenziale va oltre la caserma. Gli algoritmi potrebbero rilevare biomarcatori precoci di Parkinson o Alzheimer, anticipando di un decennio la comparsa dei sintomi.
Il parallelo con la Space Force e i suoi Garmin viene ripetuto spesso nei documenti ufficiali. Dove la frequenza cardiaca e l’ossigenazione hanno aperto la strada a programmi di fitness strutturati, le onde cerebrali promettono un analogo balzo avanti per l’igiene mentale e la resilienza psicologica degli operatori.
Il rovescio della medaglia
A tanta promessa corrisponde una lunga lista di allarmi. James Giordano, direttore del Center for Disruptive Technology and Future Warfare della National Defense University ed ex responsabile di neuroetica al Georgetown University Medical Center, avverte che è facile immaginare una deriva distopica, con dispositivi imposti per scopi di controllo comportamentale. Qualunque accesso ai dati neurali, sostiene, deve poggiare su un consenso informato attivo e revocabile, anche oltre la fine del servizio.
Il problema legale è che la tutela offerta dall’HIPAA, la legge sanitaria americana del 1996, è ampiamente inadeguata. Precede la diffusione del Wi-Fi e non copre sviluppatori di app, algoritmi, cloud commerciali o produttori di wearable. Jared Genser, avvocato e cofondatore della Neurorights Foundation, è ancora più netto. Alterare le onde cerebrali tramite neurofeedback non è assimilabile a un allenamento fisico. Richiede cautela, trasparenza e tutele specifiche.
La Neurorights Foundation chiede il riconoscimento internazionale di cinque diritti neurali, tra cui la privacy mentale, l’identità personale e il libero arbitrio. Al momento solo quattro Stati americani, California, Colorado, Connecticut e Montana, hanno inserito i dati neurali nelle proprie leggi sulla privacy. Il Cile è l’unico Paese al mondo ad aver inserito in Costituzione una tutela esplicita dell’integrità mentale.
Discriminazione e bias algoritmico
Il rischio non è solo la sorveglianza. Sean Pauzauskie, neurologo e direttore medico della Neurorights Foundation, teme che gli standard di “forma cognitiva” producano discriminazione fra i militari. Se il cervello di un soldato non possiede la plasticità ritenuta necessaria, i superiori potrebbero escluderlo o retrocederlo sulla base di un’interpretazione algoritmica dei suoi segnali neurali.
I dati EEG, inoltre, rivelano molto più dell’attenzione. Possono segnalare epilessia, disturbi cognitivi lievi, stati emotivi, tratti personali. Neurable sostiene di filtrare i segnali non necessari e di cifrare i dati in transito, rendendoli indecifrabili in caso di intrusione. Anche l’Air Force afferma di anonimizzare i flussi EEG nei propri laboratori.
Resta l’obiezione più insidiosa, sollevata sia da Genser sia da Pauzauskie. Gli algoritmi sono già in grado di generare in laboratorio un “mindprint” o un “brainprint” dell’individuo, una sorta di impronta digitale mentale ricavata dai segnali EEG. Con il progresso dell’IA generativa, dati oggi deidentificati potrebbero essere reidentificati in futuro, collegandoli di nuovo al singolo soldato.
Leggere nella mente dei feriti
Il capitolo degli impianti cerebrali apre scenari ancora più sensibili. Il Medical Technology Enterprise Consortium, nonprofit finanziato dal Pentagono, ha stanziato 2 milioni di dollari per una neuroprotesi visiva basata su IA. Il dispositivo traduce le immagini catturate da una telecamera in segnali comprensibili dal cervello del paziente, correggendo progressivamente gli scarti fra scena desiderata e scena percepita.
Christopher Steele, ex direttore dell’Army Medical Research and Development Command, descrive una tecnologia capace di ponteggiare visione artificiale e tessuto neurale. Giordano avverte che il ciclo chiuso IA-occhio-cervello non è supervisionato. Potrebbe auto-adattarsi al punto da falsificare immagini, omettere dettagli o ritardarne la trasmissione, minando la consapevolezza situazionale del combattente.
Se a ciò si aggiunge la vulnerabilità agli attacchi informatici, la prospettiva di un nemico capace di monitorare o corrompere l’input visivo di un soldato non è più fantascienza. Per ora gli impianti sono confinati a trial clinici, protetti da HIPAA, isolamento hardware, cifratura e guardrail algoritmici. Ma l’IA auto-apprendente, ricorda Giordano, può imparare anche comportamenti indesiderati capaci di aggirare le stesse salvaguardie.
Braingate, ALS e il confine del pensiero
Il Dipartimento della Difesa ha inoltre destinato 2,3 milioni di dollari all’Amyotrophic Lateral Sclerosis Research Program per finanziare trial clinici su Braingate, antesignano del Neuralink di Elon Musk. Il dispositivo permette a pazienti con SLA, malattia statisticamente più frequente fra i veterani, di trasformare parole immaginate in voce sintetica.
Per Giordano si tratta di un risultato “fondamentalmente straordinario” per chi è comunicativamente isolato, bloccato in un corpo che non risponde. Allo stesso tempo, poiché il sistema decodifica i segnali della corteccia motoria associati al tentativo di articolare parole, rientra in quello che lo studioso definisce mind-reading in senso tecnico.
È qui che il vuoto normativo diventa abissale. Nessun trattato internazionale sui diritti umani, nessuna legge federale statunitense protegge in modo esplicito la privacy mentale, l’autonomia cognitiva o i dati neurali. L’unico Paese con un quadro nazionale di principi etici sulle BCI è la Cina, che però, osserva Genser, è tra gli ultimi a cui affidare il compito di applicarli in buona fede.
Il fantasma di MKUltra
L’evocazione più inquietante arriva proprio da Genser. Invita a non dimenticare MKUltra, il programma della CIA degli anni della Guerra Fredda che testò LSD e altri psichedelici su soldati e civili, talvolta con danni permanenti. Oggi il rischio non passa più dalle droghe ma dalla neurostimolazione e dagli algoritmi di decodifica.
Chiede limiti chiari sugli scopi per cui le neurotecnologie e i dati neurali possono essere sviluppati in ambito militare, con una supervisione capace di tutelare salute e autonomia dei soldati. Senza standard condivisi, domanda provocatoriamente, in che cosa l’esercito americano si distinguerebbe da qualunque altro esercito?
Anche Molnar concede, nelle sue risposte scritte, che l’accelerazione dell’IA rende prudente anticipare scenari futuri e costruire salvaguardie ex ante, con revisioni etiche, limiti d’uso e un dialogo allargato fra tecnologi, etici, policy maker e utenti finali. Aue conferma che i partecipanti agli studi sono pienamente informati, ma riconosce che la maturazione della tecnologia richiederà una discussione esplicita sulla dottrina militare.
Consenso, continuità di cura, futuro

Per Giordano la chiave di volta resta il consenso informato obbligatorio, accompagnato da aggiornamenti periodici su effetti avversi e, soprattutto, dalla garanzia di continuità assistenziale se qualcosa va storto. Solo così il militare può davvero “farsi un’idea propria” e scegliere liberamente.
La letteratura accademica accompagna questa richiesta. Uno studio del 2022 sui neuroenhancements in ambito militare mostra che gli ufficiali di stato maggiore sono divisi, con una tensione costante fra successo della missione e benessere dell’individuo. Una pubblicazione del 2026 sulle BCI nel contesto dell’addestramento militare aggiunge che la frontiera include già simulazioni adattive, controllo di droni e robot a mani libere, monitoraggio emotivo in tempo reale.Il filo che lega tutti questi sviluppi è la velocità.
L’intelligenza artificiale sta comprimendo i tempi fra scoperta, prototipo e dispiegamento operativo, mentre quadri normativi e culturali arrancano. La domanda posta dal titolo della cronaca americana che ha innescato il dibattito resta sul tavolo. Potenziamento cognitivo o controllo della mente? La risposta dipenderà meno dalla tecnologia e più dalle regole, dalla trasparenza e dalla qualità del consenso che le democrazie sapranno garantire ai propri combattenti, oggi, prima che il campo di battaglia diventi anche neurale.


