Punto de vista
Robots asesinos no son un cuento de ciencia ficción
En semanas pasadas, en la ONU en Ginebra se abrió un debate intergubernamental sobre el desarrollo de Sistemas de Armas Letales Autónomos, más conocidos como robots asesinos. Los precursores de este tipo de armas ya existen, en la forma de Vehículos Aéreos de Combate No Tripulados o drones armados, que en los últimos años han sido ampliamente utilizados por países como Estados Unidos, en sus operaciones militares en Afganistán, Pakistán y Yemen.
A diferencia de los drones armados, que son robots conducidos y operados por militares que se encuentran tras una pantalla en un lugar seguro fuera del campo de batalla, tomando las decisiones de ataque, los robots asesinos no necesitan a una persona para teledirigirlos. En la última década se han realizado importantes avances en el desarrollo de Inteligencia Artificial, que prevén en el futuro cercano el desarrollo de robots con la capacidad de operar autónomamente; es decir, independientemente del control humano, a través de software que les permita aprender y tomar decisiones por sí mismos.
Los robots asesinos representan una amenaza para el cumplimiento del Derecho Internacional Humanitario. Este derecho, que rige en momentos de conflicto armado, establece principios básicos para la ejecución de operaciones bélicas. Entre los principales están la prohibición de atacar a civiles e infraestructura indispensable para su supervivencia, así como al personal de ayuda humanitaria; la prohibición de realizar ataques indiscriminados que afecten a la población civil; la prohibición de cometer asesinatos y realizar ejecuciones extrajudiciales; y la obligación de respetar la vida, integridad física y la dignidad de los heridos del bando enemigo, de los beligerantes que se rindan y de los prisioneros de guerra. Cuando miembros de los oficiales de gobierno y los miembros de las fuerzas armadas faltan a estas obligaciones, deben responder ante la justicia.
En este sentido, el desarrollo de robots autónomos que eventualmente puedan operar en conflictos armados crea interrogantes respecto de su capacidad de observancia de esta normativa. ¿Cómo se puede asegurar que los robots asesinos harán una correcta distinción entre civiles y combatientes, entre infraestructura civil y objetivos militares, antes de lanzar un ataque? ¿Cómo evaluarán los riesgos de causar efectos mortales y desproporcionados en los civiles? ¿Cómo distinguirán entre combatientes activos y aquellos fuera de combate? Y en caso del cometimiento de crímenes de guerra, ¿sobre quién debería recaer la responsabilidad penal?
Si bien los defensores de la Inteligencia Artificial argumentan que las máquinas cometerán menos errores que los seres humanos, es terrible confiar ciegamente en que los robots asesinos serán infalibles. Siempre existe la posibilidad de que se cometan errores de programación y de despliegue y de que el robot reciba ataques cibernéticos o se infecte con virus informáticos, lo que en el contexto de situaciones de conflicto armado podría conllevar graves riesgos para la vida y seguridad de la población civil. ¿Estamos dispuestos a correr esos riesgos? Definitivamente, no. La comunidad internacional debe actuar ahora y no después de que los sistemas de armas letales autónomos se perfeccionen. Es necesaria la adopción de normas nacionales e internacionales que prohíban el desarrollo y uso de este tipo de armamento. Estamos a tiempo, la prohibición es un imperativo moral, sobre todo viviendo en el mundo de la sinrazón y de la violencia en el que vivimos. (O)