TIEMPO RE@L

domingo, 19 de mayo de 2024

ROBOTS ASESINOS: Conviviendo con el enemigo

Existen máquinas que pueden decidir de forma autónoma actuar letalmente contra los seres humanos. Les llaman robots asesinos, aunque también se les conoce como LAWS: Lethal Autonomous Weapons System. Cabe precisar que las minas antipersona eran - son - robots asesinos. Rudimentarios, anticuados hoy (aunque no tan pasadas de moda), pero cumpliendo en su curriculum con las características básicas de lo que el ‘Grupo de Expertos Gubernamentales sobre las tecnologías emergentes en la esfera de los sistemas de armas autónomas letales’ considera necesario para reconocer su marca: letalidad (suficiente carga útil para matar), autonomía (no hay control humano en el proceso de ejecución de su tarea), imposibilidad de terminación (una vez las pones en marcha, no hay vuelta atrás, o el coste es altísimo), y efecto indiscriminado (independientemente de las condiciones, los escenarios y los objetivos). Sin embargo, a estas minas les falta un rasgo, la evolución, el cual indica que el dispositivo se adapta al contexto, aprende de forma autónoma y amplía sus capacidades más allá del control humano. Ellas no lo tienen, pero sí los robots asesinos desarrollados, cada vez más independientes…. y peligrosos. Porque los robots asesinos han evolucionado, y mucho. Antes, la autonomía de la máquina se reducía a decidir si estallaba cuando un ser humano presionaba accidentalmente su espoleta. En cualquier sitio, a cualquier hora, quienquiera que fuera el desgraciado caminante. Ahora, un enjambre de drones suicidas puede desplegarse por un área o incluso entrar en una casa, perseguir y empotrarse contra quien haga un movimiento o tenga la temperatura humana estándar. El uso de robots semiautónomos (paso previo al asesino) ya puede verse en los vídeos propagandísticos, pero reales, que circulan en redes sobre su uso en la guerra criminal fomentada por los EE.UU. y la OTAN en Ucrania, o escucharse en las noticias que nos informan sobre cómo genocidio en Gaza a manos de las bestias sionistas que masacran con total impunidad a la población civil palestina que no tiene a donde escapar al estar recluidos en la mayor cárcel a cielo abierto del mundo como es Gaza. Por su parte, la ONU denunció en mayo del 2021 el uso de drones completamente autónomos para matar personas en Libia. Ellos ya están aquí. Las minas antipersonas se consideran no éticas, porque un robot asesino, por tosco que sea, no hace distinciones, no distingue lo legal de lo correcto. Se ha luchado mucho contra ellas por esa razón. No cumplen lo que llaman ética bélica, un oxímoron brutal pero razonable si no tienes nada mejor que llevarte a la negociación sobre cómo regular el uso de las armas. Aquella lucha terminó con la aprobación del Tratado de Ottawa, o Convención sobre la prohibición del empleo, almacenamiento, producción y transferencia de minas antipersonales y sobre su destrucción, que entró en vigor en 1999. EEUU, Rusia e Israel (entre otros) ya han dejado claro que se oponen a un tratado que prohíba las armas autónomas. Están en otra guerra, en la de la competición tecnológica, en la carrera - frenética y carísima - por la superioridad en la Inteligencia Artificial. Y así te lo explican: una cosa son las tecnologías emergentes como la digitalización, la inteligencia artificial y la autonomía de las máquinas, que pueden emplearse respetando plenamente el derecho internacional (por ejemplo, apagando grandes incendios), y otra son esas tecnologías como elementos integrales de los robots asesinos. Nadie duda de eso, pero es conocida la irresistible tendencia del poder a utilizar los desarrollos tecnológicos para aumentar las capacidades militares (el ejército siempre está detrás de las investigaciones más punteras), y pocos necesitan que les expliquen qué es un bien de doble uso ya que se plasmó por primera vez en el Código de Justiniano, allá por el siglo VI. En realidad, las justificaciones y los argumentos a favor del uso de los robots asesinos ya se encuentran con facilidad en artículos y conferencias auspiciados por grandes sumas de dinero. Como risibles argumentos argumentan que los robots asesinos impulsan el desarrollo tecnológico para “tomar las mejores decisiones”, para “salvar las vidas de nuestros jóvenes” o para hacer la guerra “más precisa y más humana”. Tal cual. Pero un robot asesino no distingue lo legal de lo correcto, ya que no entiende de conflictos morales, y si bien es cierto que muchas veces los humanos tampoco somos capaces de elegir lo justo frente a lo aparentemente legal y a la obediencia debida, llegado el caso, al menos sabremos de quién es la decisión homicida, de quién es la responsabilidad. Porque el arma autónoma letal ni compadece a la víctima ni asume responsabilidades. Así las cosas, la única posición digna en este asunto pasa por la prohibición de los robots asesinos, o al menos por su regulación estricta en el marco del Derecho Internacional Humanitario, normativa que trata de limitar los efectos de los conflictos armados, principalmente protegiendo a las personas que no participan en ellos. Por ello, deben prohibirse las armas autónomas que no puedan ser controladas totalmente por los seres humanos, así como las que por estos motivos puedan causar muertes, lesiones y daños incidentales e indiscriminados a civiles. Y deben ser descartadas aquellas que no puedan relacionarse con la responsabilidad de una cadena de mando y control humanos. En último término, la IA, aplicada a la carrera de armamento, deja de ser inteligencia y pasa a ser estupidez, ya que activa la llave de una caja de pandora que, como pasa con estas cajas, una vez se abre, no se cierra.
Creative Commons License
Esta obra está bajo una Licencia de Creative Commons.