Las innovaciones y revoluciones dentro del campo militar no suelen traer buenas noticias, pues normalmente sus avances están relacionados con cómo matar de forma más rápida y eficaz. Tras el invento de la pólvora y de las armas nucleares, el avance tecnológico ha permitido desarrollar complejos sistemas de armamento robotizado, una peligrosa vía que muy fácilmente se le puede ir a los gobiernos de las manos.

Tras las protestas ciudadanas canalizadas a través de 22 ONGs de todo el mundo en la iniciativa ‘Stop killer robots‘, los expertos en robótica no han tardado en argumentar las razones y unirse a ellos. Esta semana, según publica el Telegraph, el Comité Internacional de Control de Armas Robóticas, formado por 270 ingenieros y científicos de todo el mundo, ha alertado del gran riesgo que supone el desarrollo de armas completamente autónomas que, una vez se activan, tienen el poder de decisión sobre matar o no a un objetivo, sin que medie una orden humana que autorice esta acción. Lo que, por cierto, va contra las tres leyes de la robótica formuladas por Isaac Asimov: proteger su existencia sin llevarse por delante ninguna vida, obedecer órdenes y, bajo ningún concepto, hacer daño a un ser humano.

Por desgracia, no es ciencia ficción

Este llamamiento, que llega en el momento de un caluroso debate sobre los ataques y bombardeos aéreos con drones en Pakistán y Afganistán por parte del ‘Premio Nobel de la Paz’ Barack Obama (un hecho tan irónico como lamentable), alerta de cómo estas armas podrían ‘aumentar o intensificar los conflictos armados‘, así como ‘causar daños injustificados a la población civil‘. Por ello, ingenieros, científicos, expertos en robótica e informáticos han firmado una petición con el fin de detener este tipo de tecnología para el campo de batalla.

«El aspecto más triste de la vida actual es que la ciencia gana en conocimiento más rápidamente que la sociedad en sabiduría.» Isaac Asimov

«Los gobiernos deben sentarse a escuchar las advertencias de los expertos y trabajar con nosotros para hacer frente a este desafío juntos antes de que sea demasiado tarde», afirma el presidente del Comité Internacional de Control de Armas Robóticas, Noel Sharkey.

El pasado mes de junio, el experto sudafricano en Derechos Humanos Christof Heyns, presentó un informe ante la ONU acerca de las ejecuciones arbitrarias y extrajudiciales, donde pedía una moratoria para el uso de estos artefactos. El texto narrado por Heyns sostenía que de desarrollarse e incorporarse estos ‘robots asesinos’ a los arsenales de los países, «se añadiría una nueva dimensión a la realidad que ya se vive con los drones, que matan por control remoto.»

Aunque en la actualidad la gran mayoría de estas armas aún necesitan una orden para llevar a cabo un ataque, un gran número de países ya están pensando, con no poca preocupación, en el siguiente paso de la robótica militar: permitir a las máquinas atacar sin autorización humana. De hecho, como se citaba en el informe de Naciones Unidas, ya existen varios sistemas robóticos con cierto grado de libertad y varios grados de autonomía. Es el caso, por ejemplo, del sistema Phalanx (EEUU), que detecta, rastrea y responde de forma automática a los ataques desde el aire, como los realizados con misiles antibuque y aeronaves. No es el único. Gran Bretaña tiene en su arsenal el Taranis, un prototipo de avión de combate no tripulado con motor de reacción que busca, identifica y localiza de forma automática a cualquier enemigo.

Es necesaria una regulación urgente

Uno de los grandes problemas, según narraba el relator de la ONU en su informe, es que estos sistemas autónomos «comportan un vacío potencial de responsabilidad». Actualmente existen más de 7.000 drones, que desde el año 2001 han sobrevolado no solo Afganistán y Pakistán, sino también Colombia, México, Yemen, Libia, Irán e Israel. Todas las responsabilidades legales y penales se diluyen, dando lugar a lo que las administraciones Bush y Obama han llamado «muertes selectivas» bajo los principios del Derecho Internacional (en realidad, estos actos son totalmente opuestos a los principios internacionales del derecho de la guerra). Si un robot mata a una persona sin que exista una orden previa ¿quién tiene la culpa? ¿sobre quién recae el asesinato? ¿sobre el ingeniero que lo fabricó? ¿sobré el informático que introdujo el código? ¿quién es el culpable?.

Otra de las cosas importantes a tener en cuenta es la gran patada a los Derechos Humanos. Estas ejecuciones son extra-judiciales, es decir de personas que no han sido juzgadas conforme a derecho y de inicio ya se las considera culpables de haber cometido actos atroces.

Como bien afirma al final de su texto Christof Heyns, «La guerra sin reflexión es una matanza mecánica«. Posiblemente, llegados a este punto, si Isaac Asimov levantara la cabeza probablemente añadiría: «El aspecto más triste de la vida actual es que la ciencia gana en conocimiento más rápidamente que la sociedad en sabiduría

Redacción QUO