Appello all’Onu da parte delle aziende di robotica: “Fermate i soldati-robot”

116 fondatori di aziende di robotica e intelligenza artificiale, tra cui Elon MuskMustafa Suleyman, hanno scritto una lettera all’Onu da Melbourne, dove si ritrovano per l’International Joint Conference on Artificial Intelligence‘, per avvertire gli esperti governativi della pericolosità dell’utilizzo di “soldati-robot“.

Ecco il contenuto della lettera: “Invitiamo i partecipanti ai lavori del GGE a sforzarsi di trovare modi per prevenire una corsa agli armamenti autonomi, per proteggere i civili dagli abusi e per evitare gli effetti destabilizzanti di queste tecnologie. Le armi letali autonome minacciano di essere la terza rivoluzione in campo militare. Una volta sviluppate, permetteranno ai conflitti armati di essere combattuti su una scala più grande che mai, e su scale temporali più veloci di quanto gli umani possano comprendere: sono armi che despoti e terroristi potrebbero rivolgere contro popoli innocenti, oltre che armi che gli hacker potrebbero riprogrammare per comportarsi in modi indesiderabili. Non abbiamo molto tempo per agire: una volta aperto il vaso di Pandora, sarà difficile richiuderlo“.

La preoccupazione è quella che utilizzando dei robot senzienti venga meno il contraccolpo psicologico dell guerra e, come spiega Alberto Rizzoli a ‘Repubblica.it‘, “Se si usano i robot autonomi per le operazioni militari, il danno psicologico della guerra, pensiamo all’impatto sull’opinione pubblica della morte di un soldato, diventa un mero danno economico: la distruzione di un robot non è nulla di più che una perdita in un bilancio“.

Un altro elemento è dato dal fatto della presa di decisione da parte di un’intelligenza artificiale che, per quanto sofisticata e avanzata, si basa pur sempre su degli algoritmi, che possono risultare fallaci come la mente di un essere umano in quanto, come afferma lo stesso Rizzoli, “Il cervello di questi robot è una “scatola nera” che compie decisioni, a volte anche sbagliate, che ancora non riusciamo ad analizzare bene. Se un drone autonomo è dotato di armi, bisogna essere certi che non colpisca civili e innocenti, e bisogna che qualcuno sia legalmente responsabile per il suo operato: non si può dar la colpa a un algoritmo“.

Mario Barba