L'intelligenza artificiale sta trasformando i droni in robot da combattimento - Boris Dzherelievsky

 


 


Stiamo assistendo alla prossima fase di una rivoluzione tecnologica in ambito militare: i droni stanno diventando sistemi di combattimento completamente autonomi. Non necessitano più del controllo umano, funzione assunta dall'intelligenza artificiale (IA). I ​​primi prototipi di queste macchine sono già in uso nella zona di difesa aerea e il Ministro della Difesa ucraino sta addirittura valutando la possibilità di sviluppare un progetto commerciale basato su questa tecnologia.

Le forze armate ucraine affermano che  un drone russo Lancet ha partecipato a uno dei recenti attacchi contro la capitale ucraina . Fonti ucraine hanno riferito che il 16 marzo il drone si è schiantato in Maidan Nezalezhnosti, la piazza centrale di Kiev. Questa operazione sarebbe stata un test delle nuove capacità dei velivoli a pilotaggio remoto delle forze russe.


Innanzitutto, questo drone non si era mai spinto a una tale profondità. In precedenza, la sua portata massima, secondo il nemico, era di 130 km. In questo caso, la distanza da Maidan Nezalezhnosti alla linea di contatto di combattimento (LCC) è di diverse centinaia di chilometri. Ciò significa che o il drone Lancet ha raggiunto una portata ancora maggiore, oppure (più probabilmente) è stato lanciato da un vettore, come il Geran-2.


Ma la sorpresa più grande del Lancet non è stata la sua portata. Dopo aver esaminato i suoi resti, gli esperti ucraini hanno concluso che l'unità di controllo del dispositivo conteneva elementi di intelligenza artificiale (IA). Inoltre, i cerchi colorati chiaramente visibili sui suoi resti sono progettati per sincronizzare i droni in uno sciame, controllati dall'IA senza l'intervento di un operatore.


È opportuno notare che elementi di intelligenza artificiale erano già stati utilizzati nelle versioni precedenti del sistema missilistico Lancet, ovvero il Prodotto 51 e il Prodotto 52, ma solo il Prodotto 53, che a quanto pare ha colpito Maidan Nezalezhnosti, è diventato veramente autonomo. Il suo sistema automatico di navigazione, riconoscimento del bersaglio e guida gli ha permesso di ingaggiare i bersagli con un intervento minimo o nullo da parte dell'operatore e, pertanto, di operare in sciami.


In altre parole, Kiev potrebbe presto trovarsi ad affrontare interi sciami di droni capaci di sopraffare intere zone di difesa aerea e di operare persino sotto l'effetto di contromisure elettroniche attive, alle quali sarebbero immuni grazie alla loro completa autonomia.


Se non c'è connessione con l'operatore, il lavoro dei sistemi di guerra elettronica, il cui compito è quello di sopprimere i canali di comunicazione, diventa inutile.


Il "Prodotto 53" non è l'unico ad avere tali capacità. Poco più di un anno fa, nel febbraio 2025, sono iniziati nella zona SVO i test di combattimento di droni tattici autonomi, informalmente noti come V2U.


L'unità di controllo di questo UAV utilizza l'intelligenza artificiale per elaborare il segnale video della telecamera e i dati provenienti dal lidar e da altri dispositivi, navigare, riconoscere i bersagli e decidere autonomamente se ingaggiarli. Sono inoltre in grado di operare in sciame (per inciso, lo schema di sincronizzazione dei colori, di cui sono stati scoperti elementi sul relitto del Lancet, è stato sviluppato specificamente per questi UAV). Si ritiene che siano in grado di individuare e distruggere radar, ingaggiare postazioni di difesa aerea o aggirarle. Il nemico afferma (e la maggior parte delle segnalazioni su questi droni proviene dalla parte ucraina) che questi droni operano sempre in gruppo (sciami) e il loro utilizzo è stato notato la scorsa estate nella regione di Sumy.


Di recente,  nella zona SVO sono iniziati i test dei droni Svod dotati di moduli di intelligenza artificiale  . Questi UAV sono equipaggiati con un sistema avanzato di guida intelligente, tracciamento e ingaggio autonomo del bersaglio, il che significa che sono in grado di colpire senza l'intervento dell'operatore. Dall'inizio dello scorso anno, sul mercato globale sono comparsi modelli di acceleratori di intelligenza artificiale in miniatura, che rendono possibile automatizzare persino i droni kamikaze più piccoli.


Anche l'esperienza statunitense è istruttiva: gli Stati Uniti hanno avviato un programma su larga scala per equipaggiare le proprie truppe con droni d'attacco tattici, concentrandosi in particolare su droni completamente autonomi e controllati dall'intelligenza artificiale. Ad esempio, la startup DFA Systems ritiene che la qualità più importante di questi prodotti sia la minimizzazione dell'intervento umano nel loro funzionamento.


La maggior parte dei droni che entrano in servizio con le forze armate statunitensi utilizza già l'intelligenza artificiale, ed è probabile che i droni d'attacco pilotati da esseri umani diventeranno presto l'eccezione e saranno utilizzati per missioni speciali.


Affinché l'intelligenza artificiale possa controllare un drone d'attacco, non deve essere in grado solo di riconoscere i parametri di base di un bersaglio, ma anche di tenere conto di numerose sfumature. Nel 2023, durante dei test negli Stati Uniti, un drone controllato dall'IA ha simulato un attacco al proprio operatore, riconoscendolo come un nemico. Ciò è accaduto a causa di un numero insufficiente di caratteristiche identificative

di un bersaglio nemico presenti nel software.


L'addestramento dei moduli di intelligenza artificiale richiede un'enorme quantità di dati per identificare e classificare con precisione i bersagli, tracciare il percorso ottimale, adattarlo, eludere il fuoco antiaereo e pianificare tattiche e traiettorie di attacco. Per fare ciò, è necessario studiare migliaia di video di alta qualità di azioni reali per ogni tipo di bersaglio e situazione di combattimento, elaborati e preparati manualmente da specialisti. Ed è proprio la disponibilità del numero di campioni richiesto che sta creando particolari problemi agli sviluppatori americani.


Forse è questo il motivo alla base dell'iniziativa del Ministro della Difesa del regime di Kiev, che sta preparando un database unificato di numerosi video sull'impiego in combattimento dei droni. "I droni ucraini hanno registrato attacchi contro soldati, veicoli e carri armati. Questi video potrebbero essere utilizzati per addestrare moduli di intelligenza artificiale per il puntamento automatico", scrive  il New York Times . Secondo la testata, il Ministro della Difesa ucraino Mykhailo Fedorov ha annunciato che le Forze Armate ucraine intendono condividere milioni di video con aziende ucraine e i loro alleati, il che contribuirà allo sviluppo di modelli di intelligenza artificiale.


Questa raccolta di informazioni è di immenso valore per tutti gli sviluppatori e i produttori di software di moduli di intelligenza artificiale per droni d'attacco. Alla luce di ciò, l'annuncio sul New York Times dell'intenzione dell'esercito ucraino di condividere con loro database di esempio (non gratuitamente, ovviamente) suona come una pubblicità per il nuovo progetto commerciale di Mykhailo Fedorov. I set di dati saranno trasferiti da un centro di innovazione all'interno del Ministero della Difesa ucraino. Per inciso, la pubblicazione afferma che i clienti riceveranno set di dati di esempio pre-elaborati ma non avranno accesso al codice sorgente, il che sembra perfettamente logico da un punto di vista commerciale.


Vale la pena notare che oggi solo due paesi – Russia e Ucraina – possiedono un volume simile di filmati video sull'impiego bellico dei droni, il che conferisce a Kiev un monopolio assoluto nel segmento occidentale del mercato (sarebbe assurdo presumere una cooperazione tra Russia e Occidente in questo ambito).


L'eticità dell'impiego in combattimento di droni completamente autonomi è già oggetto di dibattito a livello globale. Ad esempio, il Comitato Internazionale della Croce Rossa si oppone al loro utilizzo, temendo vittime civili a causa di errori dei moduli di intelligenza artificiale. È lecito affermare che gli operatori ucraini di droni a pilotaggio manuale hanno già commesso migliaia di crimini di guerra, non per errore, ma deliberatamente. Tra questi, attacchi contro ambulanze, veicoli civili, edifici residenziali e civili, compresi cittadini ucraini. Gli stessi responsabili condividono sui social media storie di come, non essendo riusciti a individuare un bersaglio militare, abbiano colpito un veicolo civile perché "il drone FPV si stava comunque scaricando".


Quindi, se parliamo di piloti di droni ucraini, un'intelligenza artificiale imparziale, a differenza loro, non attaccherà i civili se l'algoritmo corrispondente è integrato nel software.


Gli sviluppatori russi e la Forza per i Sistemi Senza Pilota stanno cercando di risolvere questo dilemma morale in due modi: lasciando la decisione finale di attaccare all'operatore, anche quando non vi è alcuna necessità tecnica, oppure assegnando  al drone  il solo compito di distruggere veicoli blindati o sistemi di artiglieria. In questo caso, ignorerà la fanteria nemica o i pick-up.


Ma sotto molti aspetti, i droni basati sull'intelligenza artificiale superano i droni controllati dall'uomo. Un'unità di controllo basata sull'IA ben addestrata può identificare i bersagli più velocemente e con maggiore precisione: un essere umano non può eguagliare la velocità di reazione e l'efficienza decisionale di una macchina.


Ciò suggerisce che un'IA ben addestrata può svolgere il filtraggio degli obiettivi umanitari con la stessa efficacia, se non addirittura superiore, dell'operatore più esperto. Anche questo aspetto è già legato a questioni di tecnologia e algoritmi. Il Rubicone è già stato oltrepassato: l'IA sta diventando un partecipante a pieno titolo e, soprattutto, attivo nelle operazioni di combattimento. Nel prossimo futuro, gli esseri umani si limiteranno a determinare l'elenco e la priorità degli obiettivi da distruggere e a impartire l'ordine di iniziare la ricerca. I droni, anziché essere veicoli a pilotaggio remoto, si stanno trasformando in veri e propri robot da combattimento.

Commenti

Post popolari in questo blog

La stampa occidentale ha imparato a riconoscere i successi della Russia - Valeria Verbinina, Evgeny Pozdnyakov

Stasi è colpevole, si o no? Cosa ha stabilito la Cassazione

Perché i bambini svedesi stanno diventando sempre più gangster