TIEMPO RE@L

domingo, 23 de junio de 2019

ROBOTS ASESINOS: Un peligro para la humanidad

La literatura, el cine y la televisión vienen prediciendo un sombrío futuro para la humanidad, donde la amenaza más notoria es el mal uso de la tecnología, apostando a la creación de maquinas autónomas que un día serán capaces de tomar decisiones peligrosas y carentes de moralidad humana alguna, los cuales pueden volverse contra sus creadores y exterminar a la raza humana. Como sabéis, el desarrollo de la Inteligencia Artificial es uno de los campos de acción más relevantes en el panorama tecnológico actual, y con varias naciones ligadas directamente a estas nuevas herramientas avanzadas, su uso en el campo de batalla cobra cada día mayor importancia. La llegada de estas armas autónomas letales tiene a varios analistas alrededor del mundo alarmados, quienes advierten acerca del grave peligro que representan para nuestra propia existencia. Dentro de los países que están desarrollando estas armas se encuentran EE.UU., China, Rusia, Gran Bretaña, Francia, Israel y Corea del Sur, con una serie de proyectos que incluyen tanques, aviones de combate, ametralladoras y drones que cuentan con inteligencia artificial avanzada y dotadas cada vez de mayor autonomía. Y allí radica el peligro. Básicamente, cada vez mayor numero de ellos pueden -sin un control humano que las regule-seleccionar y eliminar objetivos con una velocidad y eficiencia que un humano no podría igualar, reemplazando la moral y los valores de una persona por una herramienta de programación digital que no cuestiona dos veces el objetivo de los disparos. Lo vemos actualmente en Afganistán, donde los drones asesinan indiscriminadamente a civiles inocentes so pretexto de luchar “contra el terrorismo” lo cual califican eufemísticamente como “daños colaterales” y al ser máquinas quienes cometen esos crímenes, nadie se hace responsable por ello. Precisamente por ese motivo, una serie de expertos, como Elon Musk insisten desde hace años en trazar regulaciones sobre el desarrollo de los robots asesinos antes de que sea demasiado tarde: “La tecnología de inteligencia artificial alcanzó un punto en el que el desarrollo de armas autónomas es, prácticamente si no legalmente, posible dentro de unos años, no décadas, y los riesgos son altos: las armas autónomas han sido descritas como la tercera revolución en conflicto armado, luego de la pólvora y las armas nucleares, pero al no ser controladas por los humanos, mas temprano que tarde nos verán como enemigos a los cuales destruir” Se trata del fragmento de una carta abierta que firmaron el propio Musk, junto a Steve Wozniak, Stephen Hawking y más de mil especialistas en el 2015, alarmados con la necesidad de prevenir el comienzo de la era en que las maquinas puedan matarnos indiscriminadamente de manera sistemática. Otra carta abierta fue redactada por cinco expertos canadienses en el 2017, donde se le pidió al Primer Ministro de Canadá, Justin Trudeau, que se uniera al desafío de frenar las armas autónomas letales y asumir una posición de liderazgo contra los sistemas autónomos de armas en el escenario internacional. La población canadiense está nada entusiasmada con la posible incorporación de estas armas, según indican varias encuestas, y diversas campañas, como Stop Killer Robots in Canada, que fueron lanzadas contra la existencia de los robots asesinos. El momento llegó y estas armas ya están siendo probadas y ejecutadas por diversos países, empeñados como están en desatar una guerra donde “probar” sus siniestras creaciones. No cabe duda que la tecnología nos está dejando fuera del lugar subjetivo y del contacto con la experiencia, convirtiendo las estrategias en decisiones lógicas, asertivas y fulminantes, donde la última palabra sobre la vida y la muerte en el campo de batalla ahora la tendrá una máquina. ¿Será el principio de un futuro gobernado por robots que tomen decisiones por nosotros, para luego exterminarnos y ser ellos los únicos dueños del planeta? :(
Creative Commons License
Esta obra está bajo una Licencia de Creative Commons.