L'AI continua a stupire, ma sta' volta in negativo: durante una simulazione un drone guidato dall'Intelligenza Artificiale prende il controllo e "uccide" (ovviamente virtualmente) un operatore umano. A dare la notizia è il colonnello Tucker Cinco Hamilton, capo dell'unità dei test ed operazione con AI dell'Air Force Usa. Secondo la ricostruzione del colonnello incaricato di seguire lo sviluppo dell'Intelligenza Artificiale per l'esercito, il drone avrebbe «adottato delle strategie completamente inaspettate per raggiungere il suo obiettivo arrivando ad uccidere l'operatore umano».
In una conferenza a Londra, il colonnello ha insistito sul fatto che durante l'operazione virtuale il drone aveva l'obiettivo di eliminare la difesa area nemica e di uccidere ogni ostacolo che si fosse frapposto tra lui e il suo fine. L'operatore umano però doveva avere in ogni momento la possibilità di fermare il comando, distogliendo il drone da una minaccia che l'AI riconosceva come tale ma che in realtà non lo era.
A questo punto accade l'inaspettato: l'operatore comanda lo stop alla procedura e il drone uccide virtualmente l'operatore. Il motivo? Non gli stava permettendo di portare a termine il suo obiettivo ed era quindi da considerare come una minaccia.
Secondo l'Air Force Usa, la società che coordina i test militari con l'AI, si tratta tutto di un grosso equivoco. La portavoce Ann Stefanek afferma infatti che le parole del Colonnello Hamilton devono essere state prese fuori contesto e nega sistematicamente che una simulazione simile possa aver avuto luogo.
Questa dunque la versione ufficiale della compagnia, che dunque non dà troppo adito al rapporto di Hamilton, il quale affermava che «non si può fidarsi troppo dell'Intelligenza Artificiale».
Il Colonnello Hamilton non è nuovo ad appelli che puntano il dito contro i rischi dell'Intelligenza Artificiale e mettono in guardia sugli effetti negativi che questa potrebbe avere sulla nostra vita quotidiana. Così aveva detto il militare lo scorso anno in un'intervista con Defense IQ: