Más de 50 destacados académicos e investigadores de Inteligencia artificial (IA) de casi 30 países lanzaron un boicot contra el Instituto Avanzado de Ciencia y Tecnología de Corea (Kaist) por considerar que, en asociación con la empresa de defensa Hanwha Systems, busca desarrollar "robots asesinos" inteligentes.
"Hay muchas cosas buenas que para hacer con IA que salvan vidas, incluso en un contexto militar, pero declarar abiertamente que el objetivo es desarrollar armas autónomas y tener un compañero como este despierta una gran preocupación", explicó Toby Walsh, el organizador del boicot.
Los investigadores firmantes aseguraron que no colaborarían con la universidad ni con los visitantes del Kaist por temor a que esa institución buscara "acelerar la carrera para desarrollar" armas autónomas, como se conoce al armamento dotado con IA que no requiere de instrucciones humanas para funcionar.
La declaración se produce una semana antes de una reunión en Naciones Unidas en la que más de 20 países pedirán una prohibición total de los robots asesinos.
Walsh, profesor de la Universidad de Nueva Gales del Sur, de Australia, se enteró de la posibilidad de este desarrollo a través de un artículo del Korea Times que afirmaba que el Kaist buscaba "unirse a la competencia mundial para desarrollar armas autónomas" y por ello rápidamente escribió a la universidad, pero no obtuvo respuestas.
El temor se acrecentó al conocerse la asociación de la casa de altos estudios con Hanwha, uno de los mayores fabricantes de armas de Corea del Sur, y desarrolladora de las bombas de racimo prohibidas en 120 países en virtud de un tratado internacional.
Según informó el diario inglés The Guardian, una vez conocido el boicot el presidente de Kaist, Sung-Chul Shin, dijo estar triste por la noticia: "Me gustaría reafirmar que Kaist no tiene ninguna intención de participar en el desarrollo de letales sistemas de armas autónomas y robots asesinos".
"Como institución académica, valoramos los derechos humanos y los estándares éticos en un alto grado. Reafirmo una vez más que Kaist no realizará actividades de investigación contrarias a la dignidad humana, incluidas las armas autónomas que carecen de un control humano significativo", agregó.
Sin embargo, al anunciar la apertura del centro de investigación especial para la convergencia de la defensa nacional y la inteligencia artificial en febrero pasado, había afirmado que se centraría en la evolución de "sistemas de comando y decisión basados en inteligencia artificial".
"Algoritmos de navegación compuestos para vehículos submarinos no tripulados a gran escala, sistemas de entrenamiento de aeronaves inteligentes basados y tecnología inteligente de seguimiento y reconocimiento de objetos basados en inteligencia artificial", serían lo esencial del nuevo proyecto, según el anuncio que luego fue borrado del sitio del instituto.
"Desarrollar armas autónomas empeoraría la situación de seguridad en la península de Corea. Si estas armas se hacen en cualquier lugar, eventualmente aparecerían en Corea del Norte y no tendrían ningún reparo en usarlas contra el sur", agregó Walsh.
En noviembre pasado, la ONU había tenido su primer encuentro para debatir la problemática de las armas autónomas, pero se dejó en manos de futuras reuniones la adopción de una declaración políticamente vinculante, un código de conducta o un mecanismo de revisión continuada de la tecnología.
En ese momento, fuentes de Cancillería argentina habían afirmado a Télam: "Nuestro país acompañó la posición de adoptar un enfoque preventivo y prohibir el desarrollo de sistemas de armas letales totalmente autónomas, tema que trabajan los ministerios de Exterior y Defensa".