Robot killer come nei film di fantascienza?
Gli scienziati dicono no. "Umanità a rischio"

Robot killer come nei film di fantascienza? Gli scienziati dicono no. "Umanità a rischio"
ROMA - Una lettera-appello firmata da oltre 1000 ricercatori di tutto il mondo per dire no ai 'robot killer', in grado di decidere autonomamente se e quando uccidere.

A firmare anche il fisico Stephen Hawking, il patron di Tesla Elon Musk e il cofondatore di Apple Steve Wozniack. La lettera è stata presentata alla International Joint Conference on Artificial Intelligence di Buenos Aires.



LA LETTERA «L'intelligenza artificiale è arrivata a un punto in cui lo sviluppo di questi strumenti è possibile in anni, non in decenni - si legge -, e i rischi connessi sono molto alti. Lo sviluppo di armi autonome è considerata la terza rivoluzione del modo di fare la guerra dopo la polvere da sparo e le armi nucleari». L'argomento è stato oggetto di diversi meeting anche dell'Onu.



«Se una potenza militare spinge sulle armi autonome è inevitabile che si scateni una corsa mondiale, e il traguardo di questa escalation è ovvio, queste armi diventeranno i Kalashnikov di domani - scrivono gli scienziati -. Sarà solo questione di tempo per la loro apparizione sul mercato nero e nelle mani di terroristi, dittatori, signori della guerra impegnati nella pulizia etnica degli avversari. Queste armi sono ideali per compiti come l'omicidio, la destabilizzazione di popolazioni e l'uccisione selettiva di gruppi particolari». I ricercatori, si legge nell'appello, dovrebbero impegnarsi per bandire queste tecnologie, oltre che evitare di dedicarsi a questo tipo di studi.



«Noi crediamo che l'intelligenza artificiale abbia un grande potenziale per dare benefici alla società in molti modi - conclude l'appello -, e questo dovrebbe essere l'obiettivo. Iniziare una corsa agli armamenti autonomi è una cattiva idea, e dovrebbe essere prevenuta da un bando per tutte le armi di offesa che vanno oltre il controllo umano».
Ultimo aggiornamento: Martedì 28 Luglio 2015, 20:45
© RIPRODUZIONE RISERVATA