TIEMPO RE@L

domingo, 26 de septiembre de 2021

PELIGRO AL ACECHO: El inquietante futuro de los robots asesinos

Rusia es el último país se ha unido a aquellos países que apuestan por que las armas autónomas controladas por algoritmos puedan decidir por su cuenta matar a una persona. Ha sido durante la reciente conferencia que la ONU ha organizado para discutir sobre los problemas éticos que suscitan este tipo de tecnologías. Según cuenta el diario británico The Telegraph, el representante ruso dijo durante su intervención que no hay "ninguna justificación convincente para imponer nuevas restricciones o prohibiciones". Para Rusia es suficiente con que estos robots cumplan con los principios de necesidad y proporcionalidad como hacen los soldados humanos. Además están convencidos de que los algoritmos actuales son lo suficientemente avanzados como para distinguir perfectamente entre amigos, enemigos y civiles. "El alto nivel de autonomía de estas armas les permite operar en una situación dinámica de conflicto y en diversos entornos, manteniendo un nivel adecuado de selectividad y precisión”, aseguró el delegado ruso. "Esto garantiza el cumplimiento de las normas [existentes] del derecho internacional humanitario". Aunque el ataque de un ejército de robots asesinos parezca el argumento de una película ambientada en un futuro distópico, el peligro de este tipo de armas autónomas es muy real y puede que ya estemos llegando tarde para regularlo. Según un informe del Grupo de Expertos del Consejo de Seguridad de la ONU sobre Libia, un dron Kargu 2 encontró y atacó a un objetivo humano en el país árabe en el 2020. De ser cierto, esta sería la primera vez que tenemos constancia de un ataque a un ser humano realizado por uno de estos robots autónomos. Sin embargo. Rusia no es la única nación que está invirtiendo en la implementación de este tipo de armas. Países como Israel, China, Reino Unido, Corea del Sur, Australia o los EE.UU. las tienen también. Y aunque, como señala un informe de Human Rights Watch, algunos de estos países habían considerado en el pasado que es muy pronto para empezar a tomar medidas, ahora parecen haber cambiado de idea. Según afirma The Telegraph, todos se han mostrado en desacuerdo con la necesidad de una regulación de este tipo de armas a nivel internacional. La frase sobre estas líneas la ha pronunciado el Dr. Neil Davison, asesor científico y político del Comité Internacional de la Cruz Roja (CICR), en una entrevista para la BBC. Davison afirma que los sistemas autónomos son peligrosos porque "el usuario no elige realmente contra qué se dispara, cuándo se dispara o dónde se dispara exactamente, por lo que existe un riesgo inherente para los civiles". La ONG, Human Rights Watch también es muy activa en este asunto y es una de las fundadoras de la Campaign to Stop Killer Robots (Campaña para Detener los Robots Asesinos), en la que participan más de 180 ONGs de 67 países y que aboga por un tratado que mantenga el control humano sobre el uso de la fuerza. Esta ONG ha presentado junto con investigadores del International Human Rights Clinic de la Universidad de Harvard un informe en el que se insta a las naciones a no delegar en las máquinas las decisiones sobre la vida y muerte. "Es necesario ampliar el derecho internacional para crear nuevas normas que garanticen el control humano y la responsabilidad en el uso de la fuerza", afirma Bonnie Docherty, investigadora principal sobre armas en Human Rights Watch y directora asociada de conflictos armados y protección civil en el Human Rights Clinic de Harvard. "Los problemas morales, jurídicos y de seguridad fundamentales que plantean los sistemas de armas autónomas justifican una respuesta firme y urgente en forma de un nuevo tratado internacional". La cuestión sobre los límites de la inteligencia artificial viene de lejos y su potestad de matar de manera autónoma siempre se ha visto como una línea roja. Uno de nuestros pensadores de cabecera, el prestigioso investigador y futurista James Lovelock, advierte en un capítulo de su libro Novacene - donde especula con un futuro donde las máquinas con inteligencia artificial avanzada se conviertan en una nueva forma de vida que tendrá que coexistir con los humanos - que el temor a una guerra entre máquinas y humanos al estilo 'Terminator' es muy poco probable, al menos de momento. Pero, según él, la única manera en la que esto podría ocurrir es permitir que las máquinas tengan el poder de decidir sobre la vida o la muerte… y ello ya está ocurriendo. “La noción de permitir la evolución de sistemas informáticos adaptativos en plataformas militares me parece la idea más mortífera que se ha introducido hasta ahora para la sustitución de la vida humana y de otras formas de vida orgánica en la Tierra”, escribe Lovelock en su libro. “Es horrible que nuestros líderes, casi todos ellos completamente ignorantes en asuntos de ciencia e ingeniería, estén fomentando estas armas” asevero. No cabe duda que el mundo va directo a su autodestrucción :(
Creative Commons License
Esta obra está bajo una Licencia de Creative Commons.