La guerra dei droni nell’era dell’Intelligenza Artificiale

L’intelligenza artificiale sta rivoluzionando anche il modo in cui conduciamo la guerra, con particolare riferimento all’impiego di droni

Recentemente il vice segretario alla Difesa degli Stati Uniti, Kathleen Hicks, ha annunciato il lancio dell’iniziativa “Replicator”, un ambizioso progetto finalizzato a intensificare l’utilizzo dell’intelligenza artificiale nel campo di battaglia. Un annuncio che ha destato preoccupazione e che segna inebitabilemente un cambiamento significativo nella sicurezza nazionale, con l’obiettivo di dispiegare migliaia di sistemi d’arma autonomi nei prossimi 18-24 mesi.

Tuttavia, Replicator rappresenta solo la punta dell’iceberg, poiché assistiamo a progressi rapidi nell’intelligenza artificiale che danno vita a una nuova generazione di Sistemi di Armi Autonome Letali (LAWS). Questi droni autonomi, con capacità di identificazione, tracciamento e attacco senza intervento umano, sono già utilizzati in situazioni di conflitto, come dimostra la guerra in corso tra Russia e Ucraina.

Nella prospettiva delle “guerre tra droni 2.0”, emerge un nuovo panorama in cui gli Stati cercheranno di sfruttare la velocità e la strategia con le nuove tecnologie per superare gli avversari. Gli Stati Uniti, attraverso iniziative come Replicator, stanno sviluppando la capacità di dispiegare grandi quantità di droni economici e riutilizzabili, creando i cosiddetti sciami di droni intelligenti che collaborano tra loro per attaccare obiettivi strategici.

Questo avanzamento tecnologico, se da un lato offre vantaggi militari, solleva anche preoccupazioni significative, soprattutto per i civili. A differenza delle guerre precedenti che hanno visto l’uso dei droni e dove gli operatori umani avevano il controllo diretto, la nuova generazione di droni sarà più automatizzata, coinvolgendo algoritmi complessi per la selezione degli obiettivi.

Quindi sostanzialmente dando piena autonomia di azione alla macchina. Questo solleva dubbi sulla trasparenza e la spiegabilità delle azioni, poiché gli algoritmi operano su dati vasti e complessi.

Il problema della spiegabilità dell’intelligenza artificiale diventa ancora più critico quando applicato alle operazioni di guerra con droni. Le agenzie militari e di intelligence utilizzano algoritmi altamente classificati e informazioni riservate, rendendo difficile per i decisori politici e il pubblico comprendere appieno le decisioni prese dagli algoritmi.

Questo divario di comprensione potrebbe portare a errori fatali e indebolire la responsabilità nelle operazioni militari.

Pensiamo ad esempio ad una delle recenti notizie apparse sulla rivista scientifica Nature Machine Intelligence che descrive come l’intelligenza artificiale abbia prodotto 40.000 sostanze chimiche tossiche in sole 6 ore. Un risultato che ha preoccupato gli scienziati perché questi dati potrebbero essere utilizzati per realizzare armi biologiche.

Insomma va ribadito che il rapporto tra moralità e diritto diventa un elemento cruciale in questo contesto. Mentre la legge internazionale cerca di regolamentare l’uso della forza, l’imprevedibilità e la complessità dell’intelligenza artificiale complicano gli sforzi per discernere la giusta linea d’azione. Il divario tra decisioni umane e azioni delle macchine solleva questioni etiche, e la necessità di regolamentare l’impiego di sistemi d’arma autonomi letali diventa sempre più urgente.

Per affrontare queste sfide, è essenziale adottare misure decisive. In primo luogo, è necessario sviluppare una politica governativa sull’uso dell’IA nella guerra con i droni, ma anche negli usi militari, coinvolgendo tutte le agenzie pertinenti. La “regola delle due persone” dovrebbe essere implementata per garantire il controllo umano durante le operazioni con droni, riducendo il rischio di incidenti catastrofici. Inoltre, è cruciale ridurre il divario di responsabilità, limitando il tempo tra l’approvazione umana e l’azione dei droni.

Infine, la trasparenza dell’intelligenza artificiale deve essere garantita attraverso controlli regolari sullo stato dell’IA.

Questi controlli dovrebbero essere condotti a intervalli regolari, con i risultati comunicati ai decisori politici e resi disponibili al pubblico. In un’epoca in cui la guerra con droni guidata dall’intelligenza artificiale è imminente, è essenziale agire con urgenza per stabilire regole chiare e responsabili che proteggano i civili e preservino la legalità nelle operazioni militari.

Condividi sui social

Articoli correlati