Se llama Atlas, es un robot y está siendo entrenado para convertirse en bombero. Un robot bombero. Se trata de un sofisticado humanoide de aluminio y titanio de 1,80 metros de altura desarrollado por la empresa Boston Dynamics en colaboración con DARPA, la Agencia de Proyectos de Investigación Avanzados del Departamento de Defensa de EEUU. Desde que fue presentado en 2013, sus capacidades han ido perfeccionándose con el objetivo de que algún día participe en tareas de rescate.Atlas es un ejemplo de lo que la robótica podría hacer por la humanidad en el futuro: reemplazar a las personas en misiones peligrosas. Desde intervenciones en incendios o áreas devastadas por terremotos, a accidentes nucleares como el de Fukushima, en el que los operarios de la central japonesa arriesgaron su vida (algunos de ellos la perdieron) para contener la fuga radiactiva. Los sistemas actuales son programados por el hombre y requieren, en mayor o menor medida, de su intervención. Sin embargo, los avances en Inteligencia Artificial (IA) apuntan a que dentro de unos años, décadas quizás, las máquinas serán autónomas. Podrán tomar decisiones y ejecutarlas.El uso militar de los drones o vehículos aéreos no tripulados ya resulta polémico. Pero, ¿qué ocurriría si esos futuros robots autónomos reemplazaran a los soldados en el campo de batalla? La misma tecnología que permitiría salvar vidas humanas, podría usarse en guerras. Y el sector militar es uno de los más interesados en financiar y desarrollar este tipo de armamento. Desde hace años, varias organizaciones internacionales, entre las que se encuentran Human Rights Watch y la plataforma Stop Killer Robots, están alertando a la comunidad internacional sobre el que consideran un inquietante y preocupante escenario de futuro. Este lunes comenzó en Ginebra la segunda reunión informal de expertos convocada por miembros de la Convención sobre Armas Convencionales (CCW) de la ONU para avanzar en un futuro acuerdo que prohíba el desarrollo de los Sistemas de Armas Autónomos Letales (LAWS, por sus siglas en inglés), conocidos como robots asesinos. Se trata de una tecnología que plantea importantes cuestiones éticas:¿Quién sería jurídicamente responsable de la actuación de un robot autónomo? ¿Es aceptable que una máquina decida sobre la vida de una persona? «Creo que, definitivamente, es posible crear un tratado internacional que prohíba las armas autónomas que seleccionen objetivos y los ataquen sin un control humano significativo. La tecnología para fabricar ese tipo de armas ya existe. No desarrollar ese armamento es sólo una cuestión de voluntad de países y sus ejércitos», explica Peter Asaro, cofundador y vicepresidente del Comité Internacional para el Control de Armas Robóticas (ICRAC, por sus siglas en inglés). Asaro es uno de los expertos que, hasta el viernes, participaran en los debates y mesas en las que se sientan políticos, diplomáticos, científicos, ingenieros, abogados y representantes de los derechos civiles para debatir sobre los robots asesinos. Hay precedentes. En 1995, por ejemplo, se acordó vetar el uso de armas láseres cegadoras. «Ya es hora de que las naciones pasen de hablar sobre este tema a tomar medidas», ha reclamado durante su intervención la activista Jody Williams, Premio Nobel de la Paz en 1997 por su trabajo para prohibir el uso de minas antipersona y municiones de racimo, y miembro fundador de la campaña Stop Killer Robots. «Debería ser obvio que el uso de cualquier arma debe permanecer bajo control humano», sostiene Thomas Nash, confundador de Stop Killer Robots y director de Article 36, una organización que pretende reducir los daños causados por las armas. Según recuerda Stop Killer Robots, aunque los ejércitos de EEUU, China, Israel, Corea del Sur, Rusia o Reino Unido ya utilizan sistemas de armamento parcialmente autónomos, estos necesitan, en distintos grados, que una persona tome la decisión final. Se teme que una mayor autonomía se traduzca en sistemas que hagan posible que una máquina tenga la capacidad de seleccionar un objetivo y atacarlo sin intervención humana, o lo que es peor, volverse contra sus creadores. Se puede prohibir el uso de los robots asesinos pero, ¿es posible evitar que se desarrollen? «Por supuesto, podría haber países que lo hicieran pese a la prohibición, aunque sufrirían las consecuencias. Es el mismo caso que las armas químicas. Están prohibidas y, pese a su uso ocasional, no han sido desarrolladas totalmente o empleadas como si no hubieran sido prohibidas», argumenta Peter Asaro. No obstante, esta campaña para detener el desarrollo de los robots asesinos, subraya, «no pretende prohibir el desarrollo de sistemas autónomos y robóticos más generales. Sólo los que específicamente vayan a ser diseñados como armas. Usando el mismo ejemplo, no tememos que la prohibición de las armas químicas y biológicas vaya a impedir a los investigadores hacer ciencia que ayude a la población en el campo de la química y de la biología», señala. Aunque numerosos científicos se han mostrado en contra de los LAWS, de momento sólo una empresa de armamento robótico, la canadiense ClearPath Robotics, se ha comprometido a no desarrollar estos sistemas autónomos. Las conclusiones que se extraigan de esta reunión servirán de base par la cumbre anual de la CCW que se celebrará en noviembre. «Esperamos que las discusiones puedan reconducirse hacia un escenario más formal y que el CCW avance hasta conseguir un tratado», puntualiza Asaro. No hay que esperar el ultimo minuto para detenerlos Hay que hacerlo ahora :(