Scienza & Tecnologia

Intelligenza artificiale: e' allarme contro 'robot killer'

SEUL, 5 APRILE - E' allarme contro i robot-killer. Un gruppo di ricercatori internazionali nel campo dell'Intelligenza Artificiale (AI) ha annunciato che boicottera' un'universita' sudcoreana, il Korea Advanced Institute of Science and Technology (KAIST) e il suo partner industriale, Hanwha Systems, per un progetto che punta a sviluppare armi autonome che potrebbero diventare "strumenti del terrore". Robot-killer, appunto. [MORE]

In una lettera aperta, una cinquantina di ricercatori di 30 diversi Paesi minacciano di non partecipare ad alcuna attivita' accademica di quella che e' una delle piu' prestigiose universita' statali della Corea del Sud. Gli studiosi esprimono la loro "profonda preoccupazione" per la creazione nel febbraio del progetto cosiddetto "Centro di Convergenza della difesa nazionale e Intelligenza Artificiale", lanciata da KAIST e Hanwha Systems, un conglomerato industriale che e' tra i piu' grandi produttori di armi nel Paese.

L'obiettivo e' quello di sviluppare tecnologie di Intelligenza artificiale per attrezzature militari autonome: il rischio e' "aprire il vaso di Pandora" e schiudere la "terza rivoluzione" nella tecnologia militare, scrivono gli scienziai; sono armi che "permetterebbero di combattere ad una velocita' e su una scala che non ha precedenti" e "potrebbero essere utilizzatE da despoti e terroristi contro i civili, eliminando ogni barriera etica". Nella lettera aperta, si ricorda che l'intelligenza artificiale dovrebbe "migliorare la vita umana, invece di distruggerle". Tra le firme, alcune delle menti piu' brillanti nel campo della Intelligenza Artificiale: il britannico Geoffrey Hinton, il canadese Yoshua Bengio o il tedesco Jurgen Schmidhuber, che boicotteranno l'ateneo fino a quando non dara' garanzia "che non sviluppera' armi autonome senza significativi controlli umani".

L'universita' ha risposto con una dichiarazione del suo presidente, Sung-Chul Shin, secondo cui il controverso progetto "non comprende ricerche su armi autonome incontrollabili" che coinvolgano "violazioni di etica o di dignita' umana". Da parte sua, l'azienda -che tra l'altro produce bombe a grappolo che sono vietate in 120 Paesi- ha dichiarato che l'obiettivo "non e' sviluppare armi killer", ma "controllare in remoto le tecnologie volte a ridurre le perdite".

La polemica arriva a una settimana dalla prima riunione a Ginevra degli esperti delle Nazioni Unite sulle armi letali e autonome (Laws, il suo acronimo in inglese), in cui verra' discusso un futuro quadro normativo sui cosiddetti "robot assassini".

Federica Vetta