Como sabéis, los robots asesinos (killer robots) son sistemas autónomos de armamento que pueden seleccionar y atacar objetivos sin un control humano significativo. Suponen una auténtica revolución en el negocio armamentista, ya que abarata las operaciones militares, minimiza las bajas propias e incrementa el volumen de negocio en la industria militar. Pero cada vez hay más voces que cuestionan sus aparentes beneficios. “En la última década se ha ido construyendo una narrativa interesada sobre las ‘bondades’ de la inteligencia artificial, sin evaluar los márgenes de error que existen, y que pueden ser vidas humanas”, alerta el Centre Delàs d'Estudis per la Pau en el último informe Nuevas armas contra la ética y las personas. Drones armados y drones autónomos, donde también apunta el riesgo que “las guerras sin riesgo pueden hacer prevalecer las soluciones militares por encima de las políticas”. En efecto, los ataques con drones muestran un ritmo de crecimiento continuado, pero mientras que estos dispositivos disponen de un operador humano para ser utilizados, los killer robots pueden funcionar por libre, con el riesgo de ejecutar acciones desastrosas para las que no fueron programados. La tecnología requerida para desarrollarlos – inteligencia artificial, robótica, visión por ordenador, aprendizaje automático, potencia informática – avanza con rapidez, y crecen las dudas legales y éticas sobre estos sistemas que pueden convertirse en un peligro para la existencia humana. Diversas organizaciones pacifistas han alertado del riesgo que suponía su desarrollo y, en el 2013, cofundaban la campaña internacional Campaign to Stop Killer Robots, la principal coalición en su contra, para quienes la preocupación más importante es la ética. “Una máquina nunca tendría que estar autorizada a decidir sobre la vida y la muerte. Esta decisión no se puede reducir a un algoritmo”, explican. Pero también les preocupa el ámbito legal. “Es poco probable que las armas autónomas puedan cumplir el derecho internacional humanitario, ya que no que pueden distinguir adecuadamente entre civiles y combatientes o que hagan una evaluación de proporcionalidad”. Además, estas armas crean un vacío de responsabilidad. “Quién sería el responsable de un asesinato en masa: ¿el robot, el desarrollador o el comandante militar?”. En los últimos años, las voces de alerta de gobiernos y expertos han ido resonando en las Naciones Unidas. El secretario general, António Guterres, ha tildado estas armas como “políticamente inaceptable y moralmente repulsivas”, pero no se ha llegado a acuerdos concretos para prohibirlas. El objetivo de las entidades es que la ONU cree un marco legal vinculante para regular el uso del armamento sin control humano significativo. Un total de 30 países ya se han unido al llamamiento de la campaña Stop Killer Robots para prohibir las armas totalmente autónomas. Estados Unidos, Rusia, Israel, China y el Reino Unido son algunos de los países fabricantes que han expresado interés en el desarrollo de estos sistemas de armamento. En la convención sobre armas convencionales de Ginebra donde se trató la cuestión el agosto pasado, el representante de los EE.UU. alegó que era “prematuro” discutir los riesgos potenciales de este armamento. Desde la campaña internacional Stop Killer Robots creen, sin embargo, que si la comunidad internacional pospone la legislación hasta que el armamento esté desarrollado, será mucho más difícil evitar que se utilice. Lo triste es que cuando por fin se decidan a detenerlos, será demasiado tarde... La Era de los humanos habrá terminado :(