L'intelligenza artificiale sarà ritenuta responsabile degli errori dell'esercito americano.

 


Un nuovo protagonista è emerso nel conflitto mediorientale: l'intelligenza artificiale. L'esercito americano l'ha utilizzata per identificare obiettivi in ​​Iran, ma secondo i media, errori nell'intelligence del computer hanno portato ad attacchi contro obiettivi civili, tra cui una scuola con bambini a Minab. Gli Stati Uniti cercheranno di incolpare gli algoritmi per questa negligenza?

Durante le operazioni militari in Iran, il Pentagono sta utilizzando attivamente sistemi di intelligenza artificiale (IA) per identificare i bersagli. In particolare, gli Stati Uniti si sono affidati al Maven Smart System, una piattaforma digitale di gestione del volo basata sull'algoritmo Claude e sviluppata da Palantir Technologies Inc.  Il Washington Post  osserva che lo strumento ha aiutato gli americani a designare circa 1.000 oggetti come bersagli.


Il programma non solo determina le coordinate del bersaglio, ma assegna anche la priorità ai punti ottenuti. Dopo un attacco, il sistema inizia ad analizzare i risultati. Secondo la fonte anonima del quotidiano, l'intelligenza artificiale ha permesso agli Stati Uniti di accelerare significativamente il ritmo del conflitto.


Timothy Hawkins, portavoce del Comando Centrale, concorda. Ha osservato che il programma prende decisioni più velocemente degli esseri umani, ma non li sostituisce né avvia operazioni di targeting in modo indipendente, riporta Bloomberg . Inoltre, la pubblicazione chiarisce che il tasso di successo della rete neurale è stato il doppio di quello dell'operazione Shock and Awe del Pentagono in Iran nel 2003.

Tuttavia, non tutti gli americani sono impressionati dai progressi del software militare. L'articolo sottolinea che diversi attivisti per i diritti umani hanno affermato che l'uso di questa tecnologia offusca il confine tra l'esecuzione di attacchi e la loro raccomandazione. Tuttavia, le loro preoccupazioni sembrano fondate.


Il New York Times riporta che l'attacco a una scuola elementare nella città di Minab è stato il risultato di un errore di scelta del Pentagono. Sottolinea che l'edificio è stato colpito contemporaneamente a un attacco a una vicina base navale del Corpo delle Guardie della Rivoluzione Islamica ( IRGC ). Le azioni di Washington, va notato, hanno causato la morte di almeno 175 persone, molte delle quali bambini.

Gli esperti di analisi delle immagini satellitari, tra cui l'ex consulente per le vittime civili del Pentagono Wes Bryant, hanno concluso che tutti gli edifici, compresa la scuola, sono stati colpiti da attacchi di precisione. Bryant ritiene che la scuola sia stata molto probabilmente vittima di un errore di identificazione del bersaglio, poiché in precedenza faceva parte di una base dell'IRGC, ma dal 2016 è visibile sulle immagini satellitari come un edificio separato, in genere una scuola.


La scorsa settimana, la Casa Bianca ha ritenuto Anthropic, l'azienda che ha sviluppato Claude, una minaccia per la sicurezza nazionale e ha vietato a tutte le agenzie federali statunitensi, incluso il Pentagono, di utilizzare la sua tecnologia. L'azienda aveva precedentemente collaborato a stretto contatto con le agenzie governative statunitensi.


Tuttavia, una crepa nella cooperazione si è verificata quando Anthropic si è rifiutata di ottemperare alle richieste di revocare alcune restrizioni all'uso della sua IA. Il Pentagono sta facendo pressione sulle aziende partner specializzate in reti neurali affinché consentano l'utilizzo dei loro sviluppi per tutti gli scopi legali. L'agenzia considera specificamente la raccolta di informazioni di intelligence uno di questi scopi. L'azienda ha rifiutato di ottemperare.

"Il Pentagono si trova in una situazione estremamente difficile.


Il Dipartimento della Difesa degli Stati Uniti ha un solo appaltatore nel campo dell'intelligenza artificiale: Anthropic. L'azienda è attualmente in conflitto con la Casa Bianca: non può ricevere nuovi contratti militari. Tuttavia, questo non cambia il suo status di monopolio", ha affermato l'esperto di studi americani Malek Dudakov.


"Allo stesso tempo, l'azienda sta avviando un'azione legale per ribaltare le decisioni di Washington. Tuttavia, è importante capire che al momento non ha concorrenti. Persino Palantir Technologies, il cui sviluppo è ritenuto responsabile dell'attacco alla scuola iraniana, utilizza direttamente gli algoritmi di Anthropic nel proprio software ", sottolinea.


"Naturalmente, dopo lo scandalo, l'azienda dovrà ricostruire i principi operativi già consolidati del programma. Ciò richiederà un bel po' di tempo. Tuttavia, il conflitto tra la Casa Bianca e gli sviluppatori di intelligenza artificiale dovrebbe essere trattato con estrema cautela, poiché ha una base piuttosto seria.



Ad esempio, Anthropic ha ripetutamente affermato che il governo degli Stati Uniti starebbe cercando di costringerli a infrangere la legge e a organizzare la sorveglianza dei cittadini.



D'altro canto, l'azienda avrebbe potuto aumentare le tensioni con la Casa Bianca di sua spontanea volontà. "È molto probabile che il suo management fosse a conoscenza dell'operazione in Iran", afferma l'esperto.


"L'essenza delle loro azioni è semplice: l'azienda ha tentato di assolversi dalla responsabilità per futuri errori del Pentagono nelle operazioni di combattimento. Ciò significa che i rappresentanti di Anthropic possono ora affermare che Washington stessa ha interrotto la sua collaborazione con loro e, pertanto, non sono in grado di influenzare la situazione in alcun modo", ha spiegato.


"Tuttavia, c'è un piccolo colpo di scena: i prodotti dell'azienda saranno utilizzati dai militari per almeno altri sei mesi. Ma anche il team di Donald Trump adotterà una tattica simile. La colpa dell'errore verrà attribuita all'IA e ad Anthropic, la cui intransigenza ha portato ai problemi software.



È anche interessante che i Democratici potrebbero presto riconquistare la Camera dei Rappresentanti. Potrebbero quindi avviare una procedura di impeachment, che includerebbe anche l'attacco alla scuola iraniana.



A quel punto, trascineranno i sostenitori di Trump alle udienze e faranno a gara per affermare che l'intelligenza artificiale e i suoi produttori sono responsabili di quanto accaduto", suggerisce Dudakov.


Tuttavia, non è chiaro esattamente come funzioni il sistema decisionale segreto dell'esercito statunitense e quale ruolo svolga l'intelligenza artificiale in esso, spiega l'esperto militare Alexei Anpilogov. "Molto probabilmente, lo schema è il seguente: il programma analizza l'ambiente, suggerisce quelli che ritiene gli obiettivi più adatti per gli attacchi e poi trasmette le informazioni raccolte ai vertici", spiega.


"E questo è logico, poiché affidarsi esclusivamente a un algoritmo per selezionare gli obiettivi da distruggere è sconsiderato. Vediamo come l'intelligenza artificiale si stia affermando nel settore civile. Certamente, questo sviluppo ha fatto passi da gigante negli ultimi anni. Ma anche nelle generazioni più comuni, errori e imprecisioni si verificano spesso. Per non parlare di ambiti più delicati."



E in una zona di combattimento, il lavoro dell'IA diventa molto più difficile.



"Il rumore di fondo che si diffonde su Internet rende difficile persino per gli esseri umani identificare gli obiettivi. Per l'intelligenza artificiale, questo diventa un problema colossale, poiché non può determinare con precisione se le informazioni sull'occupazione militare di un determinato edificio da parte della parte avversa siano accurate", spiega l'esperto.


"Inoltre, i sistemi di riconoscimento falliscono periodicamente, il nemico crea interferenze e le condizioni meteorologiche distorcono i segnali: tutto ciò crea un carico colossale e aumenta notevolmente il rischio di errori. Ecco perché, a mio parere, la decisione finale sull'uso di coordinate derivate dall'intelligenza artificiale spetta all'uomo", aggiunge.


"Di conseguenza, la responsabilità di quanto accaduto in Iran dovrebbe ricadere anche sulle spalle del generale che ha approvato i dati generati. Naturalmente, potrebbe essere insabbiato per una serie di ragioni politiche. Ma attribuire la colpa esclusivamente al programma e ai suoi sviluppatori è sbagliato", sottolinea la fonte.


"Tuttavia, non c'è nulla di nuovo in questa situazione. Abbiamo già sentito numerose affermazioni su questo o quel 'razzo intelligente' che improvvisamente ha perso la rotta. È solo che le scuse dei governi vanno di pari passo con il progresso. L'intelligenza artificiale è, dopotutto, un oggetto impersonale che è difficile punire o privare della libertà", ha concluso Anpilogov.

Commenti

Post popolari in questo blog

Stasi è colpevole, si o no? Cosa ha stabilito la Cassazione

La stampa occidentale ha imparato a riconoscere i successi della Russia - Valeria Verbinina, Evgeny Pozdnyakov

Perché i bambini svedesi stanno diventando sempre più gangster