TIEMPO RE@L

domingo, 26 de julio de 2020

ROBOTS ASESINOS: Enemigos jurados de la humanidad

Una nueva generación de armas autónomas o robots asesinos podría iniciar 'accidentalmente' una guerra o causar atrocidades masivas, según advirtió esta semana una importante ex ingeniera de software de Google. En efecto, Laura Nolan - quien renunció a Google protestando por la asignación a un proyecto para mejorar la tecnología de drones militares de los EE.UU. - ha pedido que se prohíban todas las máquinas de matar de inteligencia artificial, no operadas por humanos. Nolan dijo que los robots asesinos no controlados por humanos de manera remota deberían ser ilegales, obedeciendo el mismo tipo de tratados internacionales que prohíben las armas químicas. A diferencia de los drones que son controlados por equipos militares, localizados a veces a miles de kilómetros de la zona en la que el arma voladora está siendo utilizada, Nolan dijo que los robots asesinos tienen el potencial de hacer “cosas desastrosas, para las que no estaban originalmente programados”. Nolan, que se ha unido a la campaña para poner un límite a los robots asesinos, y ha enviado informes a diplomáticos en Nueva York y Ginebra acerca de los peligros que plantean las armas autónomas, dijo: “la probabilidad de un desastre es proporcional a la cantidad de máquinas de este tipo en un área particular. La perspectiva que se abre es la de posibles atrocidades y asesinatos por fuera de la ley incluso en el marco de las leyes de guerra, sobre todo si se utilizan cientos o miles de estas máquinas que no tienen sentimientos no conocen la piedad, por lo que pueden exterminar sin remordimiento alguno a todo ser viviente. Es posible que inicialmente ocurran ‘accidentes’ a gran escala, porque estas cosas empezarán a comportarse de modos inesperados. Razón por la cual cualquier tipo de sistema avanzado de armamento debería estar sometido a un control humano significativo, de otro modo habría que prohibirlos porque son demasiado impredecibles y peligrosos” advirtió. Google reclutó a Nolan, licenciada en ciencia de la computación por Trinity College Dublin, para que entrara a Project Maven en el 2017, luego de haber trabajado durante cuatro años en el gigante tecnológico, convirtiéndose entonces en una de sus más importantes ingenieras de software en Irlanda. Nolan dijo que empezó a sentirse “cada vez más preocupada éticamente” por su rol en el Project Maven, diseñado para ayudar al Departamento de Defensa de los EE.UU. a mejorar de manera drástica la velocidad de la tecnología de reconocimiento de video para drones. En lugar de emplear a numerosos operarios militares que analizaran horas y horas de video, registros de los drones en potenciales sitios enemigos, Nolan y otros debían construir un sistema en que las máquinas de inteligencia artificial pudieran diferenciar personas de objetos de una manera infinitamente más rápida. “Como ingeniera responsable del sistema, mi tarea en Google era asegurarme de que los sistemas y las infraestructuras siguieran funcionando, y esto es lo que se suponía debía hacer también en Maven. Aunque no estuve involucrada directamente en acelerar el sistema de reconocimiento por video, me di cuenta de que formaría parte de la cadena de asesinatos; esto llevaría en última instancia a que más personas fueran identificadas y asesinadas en masa por el ejército de los EE.UU. en lugares como Afganistán”. Aunque renunció al Project Maven, Nolan ha anticipado que las armas autónomas que actualmente se están desarrollando plantean un riesgo mucho mayor para la humanidad que los drones controlados de manera remota. Describió el modo en que las causas externas, desde el clima cambiante hasta la dificultad de las máquinas para descifrar el complejo comportamiento humano, podrían correr a los robots de su curso, algo que podría tener consecuencias fatales. “Uno de los escenarios posibles sería que las armas autónomas enviadas a realizar un trabajo se encuentren con señales de radar inesperadas en el área que están buscando, o con un cambio en el clima; podrían encontrar un grupo de gente armada aparentemente insurgente, que en realidad con las armas está cazando su comida. La máquina no tiene el discernimiento o el sentido común que un humano tiene. “Otra cosa inquietante sobre estos sistemas militares autónomos es que sólo se los puede probar utilizándolos en una zona de combate real como sucede actualmente en Afganistán, donde los drones estadounidenses asesinan indiscriminadamente a civiles inocentes en busca de ‘terroristas’, crímenes que hipócritamente son calificados de ‘daños colaterales’ para seguir matando con total impunidad” aseveró. “Si uno está probando una máquina que toma sus propias decisiones sobre el mundo circundante, tiene que ser en tiempo real. Además, ¿cómo se logra entrenar un sistema que sólo depende de su software para detectar sutiles comportamientos humanos o distinguir entre cazadores e insurgentes? ¿Esa máquina de matar, que vuela por sí sola, cómo distingue entre el combatiente de 18 años y el joven de 18 años que está cazando conejos? Los elimina a ambos dudar por un segundo” La capacidad de convertir drones militares en armas autónomas sin control humano “es hoy en día apenas un problema de software y será resuelto de manera relativamente sencilla, por lo que el peligro sobre su uso aumenta considerablemente”, dijo Nolan. Dijo además que quería que el gobierno irlandés tuviera una postura más fuerte en apoyar la prohibición de dichas armas. “Estoy convencida de que todos los sistemas de misiles guiados y los sistemas de defensa anti-misiles deben ser prohibidos. Estas armas autónomas constituyen un cambio ético y tecnológico en el marco de la guerra. Muy poca gente está hablando de esto, pero si no tenemos cuidado, una o muchas de estas armas, estos robots asesinos, podrían accidentalmente dar comienzo a una guerra, destruir una central nuclear y causar atrocidades masivas, acabando con todos nosotros” puntualizó :(
Creative Commons License
Esta obra está bajo una Licencia de Creative Commons.