Codice di guerra, il nuovo saggio di Mariarosaria Taddeo sull’etica dell’intelligenza artificiale nella difesa
Scenario globale
la competizione tecnologica tra Stati Uniti, Cina, Russia e Unione Europea accelera senza sosta. Investimenti miliardari puntano su dispositivi che analizzano enormi moli di dati, agevolano il processo decisionale e, in taluni casi, agiscono in modo autonomo. in questo clima di tensioni geopolitiche, l’impiego dell’intelligenza artificiale nelle forze armate pone una questione urgente: sarà possibile mantenere intatti i principi di umanità tipici delle democrazie liberali?
Il volume in arrivo in libreria
Il 26 agosto esce Codice di guerra (Raffaello Cortina Editore, pp. 320, 25,00 €). Il saggio affronta l’impatto etico dell’IA in ambito difensivo e descrive guerre che, già oggi, non si combattono solo con soldati ma con algoritmi capaci di operare nel cyberspazio.
L’autrice e il suo percorso
Mariarosaria Taddeo, professoressa di Etica Digitale e Tecnologie per la Difesa all’Oxford Internet Institute dell’Università di Oxford, guida il Gruppo di Ricerca su Etica Digitale e Tecnologie per la Difesa. Il Presidente della Repubblica Sergio Mattarella le ha conferito il titolo di grande Ufficiale al Merito della Repubblica Italiana.
Tre fronti di applicazione dell’IA militare
Il libro distingue tre contesti. Il primo riguarda il supporto alle funzioni strategiche, dove l’intelligence aumentata e la logistica predittiva ottimizzano le operazioni. Il secondo interessa i conflitti non cinetici nel cyberspazio, ambito in cui la cyberdeterrenza assume un ruolo decisivo. Il terzo comprende i sistemi d’arma autonomi,scenario che solleva interrogativi sulla delega della forza letale a entità non umane.
I cinque principi guida e la metodologia operativa
Per ciascun contesto emergono criticità e dilemmi. L’autrice propone cinque capisaldi: responsabilità, spiegabilità, tracciabilità, affidabilità, governabilità. A questi principi affianca una metodologia in tre fasi che consente di tradurre l’analisi teorica in prassi concreta, offrendo strumenti a legislatori, forze armate, sviluppatori e decisori politici.
Un interrogativo politico e morale
La studiosa sottolinea che la sfida non consiste soltanto nell’analizzare il funzionamento di queste tecnologie, ma anche nel definire come progettarle e governarle affinché non tradiscano i valori che dovrebbero proteggere. Se l’adozione dell’IA avviene senza un fondamento etico condiviso,il rischio è che logiche disumanizzanti prendano il sopravvento.












