Esta página web utiliza cookies de carácter técnico propios y de terceros, para mejorar la navegación de los usuarios y para recoger información sobre el uso de la misma. Para conocer los detalles o para desactivar las cookies, puedes consultar nuestra cookie policy. Cerrando este banner, deslizando esta página o haciendo clic sobre cualquier link de la página, estarás aceptando el uso de las cookies.

Jody Williams100
JODY WILLIAMS. CAMPAÑA MUNDIAL CONTRA ROBOTS ASESINOS
Aún quedan años, quizá décadas, para que haya robots de guerra capaces de decidir por sí mismos a quién disparar. Pero ya hay quien está trabajando para que ese escenario, propio de las películas de ciencia ficción, nunca se convierta en una realidad. Varias ONG, asociaciones de científicos y premios Nobel lanzan hoy una campaña para conseguir que un tratado internacional obligue a los gobiernos a detener la investigación en estas armas.
Con el lema Stop Killer Robots, una veintena de organizaciones reunidas en Londres quiere impulsar una campaña mundial para prohibir lo que los militares llaman sistemas de armas plenamente autónomos. Estos robots, a diferencia de los drones no tripulados como el  Predator, tendrán capacidad para seleccionar y atacar objetivos sin intervención humana. Países como China, Rusia, Reino Unido, Corea del Sur, Israel y en especial Estados Unidos están invirtiendo mucho dinero para que estos autómatas para la guerra sean una realidad.
“Tenemos que prohibir los robots asesinos antes de que estén listos para combatir. Una vez que estén operativos será demasiado tarde”, dice Mary Wareham, coordinadora de la campaña por Human Rights Watch. En este esfuerzo también participan organizaciones como Amnistía Internacional, la Liga Internacional de Mujeres para la Paz y la Libertad, Handicap International, Women Nobel’s Initiative, formada por varias premios Nobel, o la española FundiPau.
En la historia humana reciente  se han firmado muchos tratados de prohibición de armas. Se prohibieron las armas químicas, las minas antipersona,  las bombas de racimo y hasta los ensayos nucleares. Pero siempre fue después de que mataran o mutilaran a millones de personas. Por una vez, se quiere conseguir un tratado internacional vinculante preventivo. Los impulsores de la campaña quieren que todos los gobiernos se comprometan a no iniciar o detener proyectos de desarrollo de robots de guerra autómonos.
Aún no existen sistemas robóticos con capacidad para el ataque. Lo más parecido son los drones de la familia Predator. Pero su evolución no invita al optimismo. Los primeros de estos sistemas no tripulados que levantaron el vuelo a mediados de los años 90 cumplían misiones de vigilancia y seguimiento. No fue hasta la pasada década que tuvieron capacidad para llevar misiles. La última generación, el MQ-9 Reaper puede llevar cohetes Stinger, misiles Hellfire y bombas guiadas por láser. Como declaraba el experto en guerra moderna Peter Singer ante el Senado de EEUU, “los Predator son sólo la primera generación, el equivalente del Ford T o el avión de los hermanos Wright”.
Los expertos en robótica estiman que en una o dos décadas la tecnología se habrá desarrollado lo suficiente para que los robots puedan actuar por su cuenta. Equipados de un sinfín de sensores, cámaras y un programa con la misión, la intervención de los humanos será mínima. Intentando frenar los temores, el Departamento de Defensa de Estados Unidos aprobó en noviembre pasado una directiva en la que se recoge la obligación de que los futuros diseños incluyan siempre algún grado de control por parte de operadores humanos. Pero para los impulsores de la campaña la mera referencia es ya un signo de alarma. Para ellos, los robots asesinos deben ser prohibidos por razones morales, legales e incluso prácticas.
 “¿Realmente queremos dejar que las máquinas decidan quién debe vivir o morir en la guerra? pregunta Wareham. La moralidad de una guerra siempre es cuestionable. Pero la intervención de máquinas autónomas en ella va algo más allá. No se trata de que dos ejércitos de robots se peleen en representación de sus amos humanos. Los últimos conflictos en los que se han visto implicados países como Estados Unidos entran en la categoría de guerras asimétricas donde, al combatiente irregular, la gran potencia contrapone toda su tecnología. En Irak y Afganistán, hemos asistidos a una guerra entre drones y hombres.
Otro de los peligros que entraña la investigación en robótica militar es el problema de la responsabilidad. Aún en las peores condiciones, los militares saben que existen unas leyes de la guerra y unas normas de enfrentamiento que no deben incumplir. Aunque hay expertos en robots como el profesor Ron Arkin que sostienen que se podría programar a los robots para cumplir con la Convención de Ginebra aún mejor que los humanos, su colega británico Noel Sharky considera que “en esencia, los robots y sistemas de inteligencia artificial no pueden cumplir con las leyes de la guerra y humanitarias”, dice en un correo electrónico. Y si las incumplen, ¿a quién se juzgará?
Sharky fue pionero cuando, en 2007, ya alertó del camino hacia la autonomía que estaba llevando la robótica militar. Junto a otros colegas, creó poco después el Comité Internacional para el Control de Armas Robóticas (ICRAC), organización que también participa en esta campaña. “Todo de lo que dispondrán los robots serán sensores como cámaras, de infrarrojos, sónar, láser, sensores de temperatura, ládar…. Todo eso podrá decirnos que algo es humano pero poco más”, asegura Sharkey. Tanta tecnología no podrá diferenciar entre un combatiente y un civil, a un soldado herido, al que huye o al que se está rindiendo.
Para Sharky, Wareham o la premio Nobel de la Paz de 1997 por sus campañas para acabar con las minas antipresona, Jody Williams, el único camino posible es la prohibición de los robots de guerra ya desde los laboratorios de investigación. Por eso, la campaña que hoy se ha iniciado en Londres hace un llamamiento a los científicos a no participar en cualquier investigación en el terreno de la robótica que cuente con dinero de los militares. También invitan al resto de organizaciones no gubernamentales a unirse a su objetivo y, a los políticos, a convertir en ley que los robots no son para la guerra. ¿A los ciudadanos?, que presionen a todos los demás para conseguirlo.
Miguel Ángel Criado  
23/4/2013