TIEMPO RE@L

domingo, 11 de julio de 2021

ROBOTS ASESINOS: Cuando quien decide matar es una máquina

¿Opera ya la tecnología para que un robot asesino localice a alguien, le apunte y le dispare de forma completamente autónoma sin intervención humana? Un grupo de expertos de las Naciones Unidas sostiene que sí, y que esta situación se dio ya en Libia en marzo del 2020. Así se lo comunicó al Consejo de Seguridad, según publicó la semana pasada la revista New Scientist. Este documento de gran calado puede suponer un punto de inflexión, ya que por primera vez en la historia se admite que una máquina ha atacado de forma autónoma a un ser humano, lo que desata profundos debates éticos y legales porque hace que se tambaleen las convenciones internacionales sobre lo que está permitido en una guerra. Como sabéis, bajo el concepto coloquial de robots asesinos se esconde un campo amplísimo de armamento: “Estos van desde drones que caben en la palma de una mano a los de gran tamaño a aparatos como el Global Hawk estadounidense, cuya envergadura es mayor que la de un Boeing 737 y que es capaz de cruzar sin problemas el Océano Atlántico, pasando por vehículos blindados autónomos como los desarrollados por la empresa estonia Milrem Robotics, que ya han sido probados en guerras como la de Malí” explican quienes dirigen la campaña Stop Killer Robots. El uso de drones parcialmente autónomos (es decir, necesitan alguna intervención humana) se ha generalizado de tal manera que han sido más que frecuentes en las guerras en Libia y Siria, y se convirtieron “en la verdadera estrella” del conflicto del Alto Karabaj que enfrentó a Armenia y Azerbaiyán en el 2020. En esta última contienda se dio a conocer al gran público la llamada munición merodeadora, que se basa en la idea de no emplear drones para lanzar armamento, sino que el propio dron esté dotado de una ojiva y cuando localiza un objetivo, un operario lo lance hacia él porque el propio dron es un arma. “El paso evidente es dotarle a ese dron kamikaze de un sistema de reconocimiento de objetivos que le permita operar autónomamente” aseguran los expertos en el tema. Para su funcionamiento, los drones autónomos van equipados con una cámara y un algoritmo de procesamiento de imágenes: de la misma manera que se puede enseñar a un programa a reconocer caras, se le enseña a reconocer objetivos. Y a atacarlos. Hasta ahora, las fuerzas aéreas debatían cuál sería el último avión con piloto. Pero lo que estamos viendo es que se ha lanzado una demencial carrera tecnológica por fabricar masivamente drones kamikazes baratos que puedan lanzarse en enjambre gracias a la computación distribuida, en la que cada dron por sí mismo no tiene mucha potencia de procesamiento, pero que actuando en enjambre funciona como una mente colmena asesinando indiscriminadamente a todo ser viviente. Y si lo que se pretende es lanzar enjambres de drones de forma masiva no se puede depender de un humano sentado detrás de una consola para controlarlos ya que lo hacen de forma autónoma. Este peligroso paso ya se ha dado, según la carta que remitió el grupo de expertos al Consejo de Seguridad de la ONU. En ella, se relata un episodio acaecido en marzo del 2020 durante la guerra de Libia. Sobre el terreno, las fuerzas del general Jalifa Hafter, de 77 años, entonces hombre fuerte del este del país respaldado por Rusia. Sus tropas lanzaron un ataque sobre Trípoli y fueron repelidas por el ejército del primer ministro reconocido por la ONU, Fayez Sarraj. “Los convoyes logísticos y las fuerzas aliadas de Hafter en retirada fueron perseguidos posteriormente y atacados a distancia por vehículos aéreos de combate no tripulados o sistemas de armas autónomos letales como el STM Kargu-2 [un dron militar de fabricación turca] y otras municiones de merodeo. Los sistemas de armas autónomos letales se programaron para atacar objetivos sin requerir la conectividad de datos entre el operador y la munición”. La carta no revela si hubo víctimas mortales, pero de que lo hubo no hay duda alguna, aunque se desconoce su número. Estos robots asesinos, explica Rahul Uttamchandani, abogado experto del gabinete de Legal Army, contravienen “todos los principios sobre los que se basan las guerras modernas”. Los básicos son el de humanidad (toda persona que no participa o que ha dejado de participar en las hostilidades debe ser tratada humanamente); necesidad (no usar armas o métodos que causen daños excesivos con respecto a la ventaja militar prevista); proporcionalidad (no se deben causar al adversario males desproporcionados en relación con el objetivo del conflicto armado); y distinción (hay que diferenciar en todo momento entre la población y los combatientes). Las armas autónomas (conocidas como limited automated weapons, o LAWS) o las automatizadas (o parcialmente autónomas) ya existen hace tiempo. Hasta ahora, se decía que su uso “se había limitado a la defensa” cuando su uso indiscriminado en Libia lo desmienten. En la actualidad existe una considerable actividad internacional que tratan de lograr su prohibición. Las posibles negociaciones, sin embargo, se encuentran en punto muerto, debido a que tanto EE.UU. como el Reino Unido y los países de la OTAN sostienen falazmente que el Derecho Internacional Humanitario (DIH) existente ya “proporciona un marco integral para controlar el uso de la autonomía en los sistemas armados”, según manifestó en 2019 el representante norteamericano ante el Convenio sobre Ciertas Armas Convencionales (CCW) cuando ello no es cierto y por el contrario, esos países dificultan cualquier avance. Cabe destacar que las convenciones de Ginebra constituyen la columna vertebral de esta legislación humanitaria. Pero ni EE. UU. ni Turquía (entre otros) han firmado sin embargo parte de los protocolos, sobre todo los que se refieren a los conflictos internos. Esta circunstancia dejaría ya de por sí sin efectos el DIH para casos como el libio. Por otra parte, para que se respeten sus cuatro principios básicos (humanidad, necesidad, proporcionalidad y distinción) resulta necesario atribuir las acciones de guerra a alguien. En el caso de las armas autónomas, ¿cómo le preguntas a un robot que explique su comportamiento? A una máquina no cabe atribuirle responsabilidad. Y si hemos llegado a la automatización total, algo que pongo en duda, habremos pasado a una etapa superior, para lo cual se hace necesaria una regulación específica. Otra posibilidad es pactar una moratoria hasta que se llegue a un acuerdo. Pero si se alcanza esa medida, los perjudicados serían los Estados y las industrias, por lo cual la consigna es que no se hable del asunto. “Donde no hay discusión alguna es en que asistimos apenas al prólogo de lo que puede llegar a ser”, vaticinan quienes buscan impedir el desarrollo de estas armas asesinas. No cabe duda que solo estamos al comienzo de las pesadillas tipo Terminator, que se plasmarán cuando se desarrolle aún más su capacidad de matar y que escaparan a nuestro control antes de lo que uno piensa, volviéndose en contra nuestra, buscando exterminarnos de la faz del planeta... y esto no será ciencia ficción :(
Creative Commons License
Esta obra está bajo una Licencia de Creative Commons.