Robots Asesinos: ¿Puede un algoritmo tomar decisiones sobre la vida y la muerte?

Escribe María Pía Devoto, Directora de la asociación para Políticas Publicas (APP) y coordinadora de la Red SEhlac

¡El futuro ya está aquí! Con esa frase comenzó una conferencia el reconocido científico argentino en Inteligencia Artificial Guillermo Simari, al referirse al diseño y desarrollo de armas completamente autónomas, en la Universidad Católica Argentina (UCA) en 2018. Dos años después, va a tener lugar en Buenos Aires, el Segundo Encuentro Global de la Campaña Stop Killer Robots en el Centro Cultural de la Ciencia (C3) con la presencia de personalidades destacadas como Jody Williams, gran impulsora de la Campaña Premio Nobel de la Paz (1997), organizada por la Red de Seguridad Humana en América Latina y el Caribe (SEHLAC) y la Campaña Stop Killer Robots.

En la inteligencia artificial y la robótica está sin duda nuestro futuro, las aplicaciones basadas en estas ciencias facilitarán y mejorarán la vida cotidiana, pero como toda tecnología, puede ser utilizada dejando de lado principios éticos como es el caso de desarrollo de sistemas de armas completamente autónomas, los llamados Robots Asesinos.

Si bien, no hay una definición acordada a nivel internacional sobre qué son los Robots Asesinos, vamos a tomar la de Human Right Watch: Son sistemas de armas con la capacidad de seleccionar y atacar objetivos sin la necesidad de un control humano significativo. Esta capacidad puede ser incorporada a cualquier tipo de plataforma, tanques, aviones y barcos militares.

Aún no existen estos sistemas de armas, pero cuando dice Guillermo Simari, ¡el futuro ya está aquí!, se refiere a que, si no se ponen restricciones a estos desarrollos, estaremos en presencia de una computadora con la capacidad de decidir el uso de la fuerza letal, en poco tiempo.

Existen armas con niveles de autonomía, como el Robot Surcoreano (SGR-A1) que está equipado con una ametralladora y un lanzagranadas. El Robot cuenta con un modo supervisado y uno no supervisado. La posibilidad que sea completamentamente autónomo es una cuestión de tiempo y de software.

Estas armas autónomas letales suscitan serias preocupaciones; en principio nos estaríamos enfrentando a un conflicto ético, porque es completamente contrario al derecho a la vida y a la dignidad, que la decisión sobre la misma, esté en poder de una máquina.

Por otro lado, se presentan dos tipos de problemas: Desde el punto de vista legal, por un lado, la relación de estos sistemas de armas con los Principios del Derecho Internacional Humanitario (DIH) y por el otro, la asignación de la Responsabilidad para el caso de un acto de guerra ilícito.

En el caso de los Principios de Derecho Internacional Humanitario es imposible imaginar que una máquina pueda respetar el principio de distinción, que pueda interpretar una situación contextual y distinguir entre combatientes y no combatientes. De la misma manera con respecto al principio de proporcionalidad es improbable que un sistema pueda evaluar una situación cambiante y compleja en cuanto a la ventaja militar y a la protección de población civil.

Con respecta a la responsabilidad, se estaría ante un caso de vacío de responsabilidad, no quedaría claro, ¿si se le asignaría al usuario, al programador, al fabricante, al comandante militar?

La preocupación mundial comienza a hacerse evidente en los últimos años, en 2009 se funda el Comité Internacional para el Control de Robots (ICRAC por sus siglas en inglés) que solicitaba la prohibición del desarrollo y uso de sistema de armas autónomas y un año más tarde, el Relator Especial de Naciones Unidas, para las ejecuciones extra judiciales alertaba sobre las implicaciones éticas, morales y legales del desarrollo y uso de la tecnología robótica en las guerras.

En 2012 se funda la campaña Stop Killer Robots, que hoy tiene 140 organizaciones en 61 países y es el motor fundamental para la generación y promoción de voluntades hacia la Prohibición Preventiva de Sistemas de Armas Completamente Autónomas.

En el plano internacional 29 Estados ya han solicitado esa prohibición, 80 países han expresado su preocupación y miles de expertos en Robótica e Inteligencia Artificial y Empresas de Tecnologías se han comprometido a no trabajar en el diseño y desarrollo de estas armas.

Es sin duda, el control humano significativo en el sistema de armas, el que debe ser definido y que nivel es necesario para que sea aceptable legal y éticamente. SIEMPRE debe existir control humano sobre la decisión de selección y ataque.

El Secretario General de Naciones Unidas lo expresó claramente “Las maquinas que tienen la capacidad y la decisión de terminar vidas humanas, son políticamente inaceptables, son moralmente repugnantes y deberían prohibirse por ley internacional” Antonio Guterrez.

(*) María Pia Devoto: Directora de la asociación para Políticas Publicas (APP) y coordinadora de la Red SEhlac