Volver a la página
principal de la revista

 

Programados
para la guerra

 

Las armas robóticas y automatizadas son tan solo una de las maneras en que la tecnología está cambiando la forma de hacer la guerra. ¿Se mantienen al día los trabajadores humanitarios y las normas de la guerra?

En mayo de 2013, una aeronave no tripulada con alas de murciélago del tamaño de un avión de combate estándar realizó su primer vuelo desde la cubierta del portaaviones USS George HW Bush, junto a la costa de Estados Unidos, cerca de Washington D.C.

Conocido como el X-47B, este avión teledirigido, gracias a su envergadura, es capaz de volar mucho más tiempo que los drones Predator que se usan actualmente y su capacidad para despegar desde un buque significa que se puede utilizar en casi cualquier parte del mundo.

Pero algo más hizo que el vuelo del X-47B fuera único, incluso histórico: según la Marina de Estados Unidos, tiene un diseño que le permite “ser programado para realizar misiones sin intervención humana”. A diferencia de los aviones no tripulados que se utilizan actualmente, esta arma puede ser automatizada. En resumen, se trata de un robot con alas, armas y bombas.

“Esto es el futuro”, dijo el contraalmirante de la Marina de Estados Unidos, Mat Winter, a través de la agencia Associated Press.

Y el X-47B no es la única arma en la fase de diseño. Numerosos países, con ejércitos grandes y pequeños, están creando sistemas de armas aéreas similares que pueden ser controladas a distancia (como los drones que se usan actualmente) y también funcionar de forma autónoma.

Conflicto a gran velocidad

Desde el punto de vista militar, existen muchas ventajas. Los drones de combate serían capaces de volar en el espacio aéreo defendido sin poner en peligro a los pilotos y podrían maniobrarse con mayor rapidez, tomando curvas cerradas que podrían herir o matar a una persona. Vuelan más rápido, durante más tiempo y más alto que las naves de combate tradicionales y los que son programados o automatizados serían capaces de continuar una misión, incluso si se interrumpe la comunicación entre el dron y el centro de mando.

Mientras tanto, una revolución análoga está ocurriendo en el terreno. En los últimos 15 años, se han desplegado miles de robots en conflictos como el de Irak y el de Afganistán. La mayoría han sido utilizados para detonar artefactos explosivos improvisados, pero en 2007 se puso a prueba en Irak un robot modificado para portar armas.

Desde entonces, China, Israel y Rusia también han construido sistemas de robots terrestres convertidos en armas y otros países están siguiendo el ejemplo. Vienen en todas las formas y tamaños: algunos son apenas más grandes que un juguete de control remoto, otros son del tamaño de camiones grandes. Por lo general, equipados con orugas como las de los tanques o con ruedas grandes, muchos tienen brazos capaces de realizar tareas simples y están equipados con cámaras de vídeo maniobrables, dispositivos con luz infrarroja o de visión nocturna y armas.

Sus misiones son múltiples. Pueden entrar en edificios o territorios ocupados por combatientes enemigos, con fines de reconocimiento o de ataque, y la mayoría de estos sistemas son operados por control remoto. Con el tiempo —pronostican los expertos—los robots terrestres podrían también ser programados para misiones autónomas.

Según muchos expertos, los avances que se están realizando hoy en la inteligencia artificial representan un salto cuántico en la tecnología de la guerra, similar a la llegada de la aviación en la primera mitad del siglo XX. Pero esta vez, no son solo los países con grandes ejércitos los que intervienen.

“Hoy, sin duda, vemos una amplia gama de actores con acceso a la nueva tecnología avanzada, particularmente porque es más barata y más fácil de utilizar”, escribe Peter W. Singer, director del Center for 21st Century Security and Intelligence del Instituto Brookings de Washington D.C., en un número reciente de la Revista Internacional de la Cruz Roja.

“Cuando se llega al punto en que un microdron puede volar usando una aplicación iPhone —lo que ahora es posible— un montón de gente puede usarlo”, acota Singer, que es también autor de Wired for War: The Robotics Revolution and Conflict in the 21st Century.

Distinción mecanizada

Todo esto tiene serias consecuencias en el modo cómo pueden evolucionar los conflictos y el equilibrio del poder internacional. A algunos, como Noel Sharkey, científico informático y experto en robótica radicado en el Reino Unido, les preocupa que estemos en la cúspide de un nuevo tipo de carrera armamentista en la que las armas en cuestión son relativamente pequeñas, baratas, fáciles de producir, pero extremadamente difíciles de reglamentar. “Todo el mundo tendrá esta tecnología”, asegura Sharkey, y observa que la tecnología robótica está siendo impulsada tanto por los mercados de consumo e industriales como por los presupuestos militares.

Esta es la razón por la cual Sharkey se opone a los sistemas de armas que no se encuentren bajo el control de una persona en todo momento y cree que un nuevo derecho de tratados podría mejorar la situación.

Sharkey sostiene que no es una cuestión jurídica sino de humanidad. “No podemos delegar en una máquina la decisión de matar. Es el colmo de la indignidad dejar que una máquina decida matar a una persona”.

Para el sector humanitario, los sistemas de armas robóticos automatizados o totalmente autónomos plantean también serios interrogantes: dado que la mayoría de las funciones de estas máquinas son automatizadas, ¿serán estas eficientes máquinas de matar capaces de hacer la debida distinción entre combatientes y objetivos militares, por un lado, y civiles, por el otro?

Si, como pronostican algunos, los aviones de guerra hipersónicos automatizados aceleran brutalmente el ritmo de un conflicto, ¿serán capaces los seres humanos de tomar decisiones acertadas sobre la selección y la protección de los civiles, dado el ritmo ultrarrápido de combate de la próxima generación? ¿O esas decisiones también pasarán a ser automatizadas?

Y si un arma autónoma o automatizada comete una violación de las normas de la guerra, ¿quiénes serán considerados responsables? ¿El comandante que envió el dron o el robot a la batalla, o el fabricante del software que maneja el robot?

La respuesta a estas preguntas se está debatiendo en los círculos académicos, militares y de promoción de la paz. Mientras algunos están pidiendo una reglamentación, un nuevo derecho de tratados e incluso moratorias y prohibiciones de ese tipo de armas, el CICR ha efectuado un llamado a los Estados para que cumplan sus obligaciones de acuerdo con los Convenios de Ginebra y sus Protocolos adicionales para velar por que todos los sistemas de armas nuevos sean conformes al derecho internacional humanitario (DIH) antes de que se construyan y se desplieguen.

Ya hay muchas cuestiones legales, morales y políticas que giran alrededor de los drones que se utilizan hoy, sobre todo por parte de Estados Unidos, para llevar a cabo ataques en Afganistán, Pakistán y Yemen. Pero la mayoría de las cuestiones relacionadas con el derecho internacional humanitario y las misiones actuales de aeronaves no tripuladas tienen que ver con la forma en que se emplean esas armas, no con la tecnología en sí. Lo esencial es que actualmente los seres humanos tienen todavía el control activo de los drones durante sus misiones, aunque desde una ubicación lejana del campo de batalla.

Con las armas autónomas, la ecuación jurídica ha cambiado y el debate está más centrado en la tecnología propiamente dicha y su capacidad. Según el CICR , “un arma de ese tipo tendría que ser capaz de distinguir no solo entre combatientes y civiles, sino también, por ejemplo, entre combatientes activos y los que están fuera de combate, así como entre los civiles que participan directamente en las hostilidades y los civiles armados”.

Un arma autónoma también tendría que cumplir con la norma de proporcionalidad, según la cual las bajas civiles incidentales que se prevén que cause un ataque contra un objetivo militar no deben ser excesivas en relación con la ventaja militar directa y concreta prevista. Y en caso de ataque, tendría que ser capaz de tomar las precauciones necesarias para minimizar las bajas civiles.

Para el experto en robótica Sharkey, la tecnología que permitiría a las computadoras hacer distinciones y tomar precauciones de ese tipo aún está lejos de la realidad. “Si hubiera un entorno perfectamente despejado, como un desierto con un tanque, se lograría distinguir la forma del tanque y atacarlo”, dice.

Pero incluso en entornos moderadamente complejos, como son el centro de un pueblo o una calle residencial, las computadoras no son capaces de distinguir entre varias formas cambiantes en un paisaje atestado de edificios, coches, árboles y personas, dice.

Con los sistemas de armas automatizados o semiautomatizados (es decir, programados para llevar a cabo una serie de ataques específicos) se plantean interrogantes diferentes. En este caso, una persona ha tomado las decisiones con respecto a objetivos precisos. Pero ¿qué pasa si la situación cambia: un autobús escolar se detiene de repente delante del objetivo una vez que se puso en marcha la misión? Los sistemas podrían permitir que un ser humano anule la orden, pero si la comunicación con el arma es interceptada por las fuerzas enemigas (algo normal en tiempo de guerra) no habría vuelta atrás.

Sin embargo, algunos expertos en derecho internacional humanitario arguyen que ya se dan esas circunstancias con algunas armas no autónomas que se están utilizando. Cuando se dispara un misil de crucero de largo alcance, por ejemplo, la situación en el terreno puede cambiar bruscamente entre el momento en que se lanza el misil y en el que impacta su objetivo.

¿Pérdida de humanidad?

De hecho, no todos los expertos en robótica y DIH están convencidos de que la automatización o la autonomía de los sistemas de armas contradigan siempre los valores humanitarios. A medida que la inteligencia artificial se va perfeccionando, algunos sostienen que un robot teóricamente podría ser programado para comportarse —en cierto sentido— de manera más humana que los seres humanos, sobre todo en entornos con mucha carga emocional y mucho estrés.

Como este nivel de automatización es aún una fantasía de la ciencia, un ejemplo más concreto e inmediato son los sistemas de misiles defensivos, que ya se utilizan para identificar, apuntar y derribar misiles lanzados a una velocidad que excede la capacidad de los operadores humanos. ¿Sería justo, se preguntan algunos expertos, impedir a un Estado que use la automatización para defender a las personas de un bombardeo con cohetes?

El huevo y la gallina

Sin embargo, en la práctica, es poco probable que los Estados se pongan de acuerdo sobre el derecho de los tratados para regular esta nueva tecnología en el corto plazo, señala William Boothby, un experto en el proceso de examen jurídico de las nuevas armas en relación con el derecho internacional humanitario.

Una razón es que los militares por lo general no revelan su verdadera capacidad tecnológica con el fin de mantener la ventaja en futuros conflictos. “Parte de esa ventaja disminuye si otros conocen el arma y saben cómo funciona”, observa Boothby, autor del reciente libro Conflict Law, the influence of new weapons technology, human rights and emerging actors.

“Es el problema del huevo y la gallina”, añade. “¿Quién va a legislar sobre algo cuyas características aún desconocemos? Es difícil evaluar los riesgos y oportunidades de algo que no ha logrado cierto grado de madurez”.

Por esa razón, a Boothby le parece que es fundamental que los Estados incrementen su capacidad para llevar a cabo un examen jurídico de cada uno de los nuevos sistemas de armas, a lo que ya se insta en los tratados. “De los 170 Estados que están obligados, en virtud de un tratado, a realizar exámenes de nuevas armas, solo 12 tienen un proceso regular para hacerlo sistemáticamente”, dice. Boothby reconoce que pese a la existencia de esos exámenes, este sistema no es perfecto, sobre todo porque son los propios Estados los que evalúan sus sistemas de armas. Pero afirma que es una etapa importante y necesaria.

Sea cual sea la posición que se adopte sobre las armas robóticas, el sector humanitario debe prestar más atención, sostiene el experto en armas Peter Singer, y añade que cuando empezó a hablar con las organizaciones humanitarias sobre la nueva tecnología “ninguno de ellos [estaba] dispuesto o quería hablar acerca de las tecnologías como el dron Predator”.

“El mismo fenómeno está ocurriendo en este momento con el desarrollo actual de la tecnología”, afirma en su reciente artículo de la Revista. “La comunidad humanitaria está reaccionando tardíamente ante cosas que ya existen y están siendo utilizadas. Y por lo tanto su impacto será menor porque no se dio cuenta de las consecuencias hasta que pasaron las cosas”.

Una de las razones que expliquen esto puede ser que las organizaciones humanitarias han estado muy ocupadas lidiando con las atrocidades y violaciones diarias, muchas de ellas cometidas con armas convencionales sencillas, desde machetes hasta fusiles automáticos.

En un nivel más profundo, como hace notar Singer, todo esto plantea cuestiones que van más allá del derecho internacional humanitario: “La pregunta fundamental es: ¿son nuestras máquinas las que están preparadas para hacer la guerra o nosotros, los humanos?

Malcolm Lucard
Redactor jefe de Cruz Roja Media Luna Roja


El caza espía no tripulado de fabricación británica Taranis en un vuelo de prueba en Inglaterra en 2013. El Taranis estará programado para evadir ataques y seleccionar blancos, pero el fabricante y el Gobierno británico insisten en que el Taranis está diseñado para ser maniobrado por operadores humanos, y que los objetivos siempre serán verificados por el operador humano antes de lanzar cualquier ataque.
Fotografía: ©Ray Troll/BAE Systems

 

 

 

 

 


Las armas que funcionan de manera autónoma no son una novedad. Las minas terrestres funcionan sin intervención humana.
Fotografía: ©REUTERS/Nita Bhallia

 


 

 


Los sistemas de ametralladoras más sofisticados que se utilizan para proteger zonas fronterizas o instalaciones delicadas, pueden localizar blancos y disparar sin un control humano directo. without direct human control.
Fotografía: ©REUTERS/Pichi Chuang

 

 

 

 

 

 

Will these highly
efficient killing
machines be able to
make the necessary distinctions between
combatants and
military targets on
the one hand and
civilians on the other?

 

 

 

 


Los sistemas de misiles defensivos son automatizados para tomar decisiones sobre un blanco a gran velocidad.
Fotografía: ©REUTERS/Darren Whiteside


 

 

 

 


El avión furtivo no tripulado de la Marina estadounidense X-47B es capaz de llevar a cabo misiones preprogramadas.
Fotografía: ©REUTERS/Rich-Joseph Facun

 

 

 

 

 


Los expertos dicen que los “nanodrones” del tamaño de un insecto pueden ser programados para realizar misiones y reaccionar ante las condiciones que se presentan en el terreno.
Fotografía: ©REUTERS/Skip Peterson

 

 

 

 

 

 


Un soldado estadounidense mirando un vehículo robótico armado, conocido como MAARS o sistema robótico armado modular avanzado, en una exposición militar en una base de la Marina de Estados Unidos, en California, en 2012.
Fotografía: ©REUTERS/Mike Blake

 

 

 

 

 


Numerosos países vienen trabajando desde hace años en la construcción de drones de combate furtivos. En la imagen, un camarógrafo filma el modelo de un vehículo aéreo no tripulado chino, apodado “Anjian" o "Espada Arcana”.
Fotografía: ©REUTERS/Bobby Yip

 

 

 

 

 

150 años
de acción
humanitaria

Este año, en el que el primer Convenio de Ginebra llega a su sesquicentenario, Cruz Roja Media Luna Roja explora el futuro del derecho internacional humanitario y las consecuencias que tendrán las nuevas armas y la tecnología en la acción humanitaria y en las normas de la guerra.

 

Arriba

Contáctenos

Créditos

Webmaster

©2014 

Copyright