Los robots asesinos pueden tomar ‘decisiones autónomas’
En la última película de ficción The Avengers, un robot basado en la tecnología de Tony Stark y con inteligencia artificial se empeña en destruir el mundo y a los propios miembros del universo de Marvel.
La ficción no estaría muy lejos de la realidad, según la comunidad científica, tecnología y hasta la propia ONU (Naciones Unidas).
Hace poco en Ginebra se emitió un documento de rechazo contra las armas ofensivas autónomas o los llamados “robots asesinos”.
A diferencia de los drones, que necesitan una intervención humana, los “robots asesinos” pueden tomar decisiones de manera autónoma, indicaron los expertos en Ginebra.
Los más críticos consideran que no distinguen entre civiles y combatientes y podrían programar ataques con efectos desproporcionados en la población.
Desde el punto de vista militar, estas armas tienen la ventaja de reducir las pérdidas humanas en el campo de batalla, pero los científicos recuerdan que abarataría el coste de ir a la guerra y causar una nueva carrera armamentística.
“A diferencia de las armas nucleares, no requieren materias primas costosas o difíciles de obtener (...) Solo será cuestión de tiempo hasta que aparezcan en el mercado negro y en las manos de los terroristas, dictadores (..) y señores de la guerra que deseen perpetrar limpiezas étnicas, etc.”, según el texto.
Además de la ONU, miles de investigadores y personalidades del mundo tecnológico, entre ellos Stephen Hawking y el cofundador de Apple, Steve Wozniak, lanzaron un llamamiento para pedir la prohibición de las armas ofensivas autónomas.
“La Inteligencia Artificial (IA) ha alcanzado un punto en que el despliegue será una posibilidad técnica (si no legal) en años, no décadas”, añaden los firmantes, entre ellos investigadores y profesores de Harvard, Berkeley, Cambridge, París o Berlín.
Hay un precedente de prohibición de armas en desarrollo, cuando en 1998 se rechazaron los láser cegadores antes de producirse en masa. (I)