El temor de que el uso de la inteligencia artificial militarizada (IA) en la guerra y las relaciones internacionales pueda ser más mortal que la carrera armamentista nuclear no es una exageración y representa una verdadera amenaza que muchos gobiernos de manera suicida se niegan a reconocer.
Como sabéis, es inevitable que el uso cada vez mayor de la IA para fines militares eleve el espectro de un futuro aterrador al estilo Terminator donde las computadoras y los ejércitos autónomos de robots asesinos conducirán guerras sin ningún control o supervisión humana y dado el momento, se volverán contra sus creadores, exterminándolos para ser ellos los nuevos dueños del planeta. Hay quienes creen que este escenario es una exageración y - afirman - “se basa en un malentendido fundamental de lo que es la IA y que siempre serán los seres humanos, no las máquinas, quienes harán la guerra”. Que hay una carrera armamentista global de IA es una realidad que no debemos ignorar. Tres países, en particular, Estados Unidos, China y Rusia han declarado públicamente que la construcción de máquinas inteligentes ahora es vital para el futuro de su seguridad nacional. El Consejo de Estado de China tiene una estrategia detallada diseñada para convertir al país en el centro de vanguardia y de innovación global en inteligencia artificial para el año 2030. Si bien los EE.UU. no tienen una hoja de ruta prescriptiva como la de China, el Pentágono ha estado siguiendo una estrategia conocida como la 'Tercera compensación', que tiene como objetivo de que a través de armas impulsadas por software inteligente, darle a los EE.UU. el mismo tipo de ventaja sobre los adversarios potenciales que una vez tuvo con las bombas nucleares y las armas guiadas con precisión. Por su parte Rusia, que está a la zaga en este campo de China y EE.UU., comenzó un programa de modernización recién en 2008, pero esta desarrollándose a pasos acelerados. Es mas, el Comité Industrial Militar ha establecido como objetivo prioritario hacer que el 30 por ciento del equipo militar sea robótico para el 2025.
Esto es significativo. Pero hay una diferencia importante entre la carrera armamentista de la IA y la nuclear: la primera ha sido fortalecida por aplicaciones comerciales, no simplemente por estrategia militar. Así por ejemplo, los algoritmos desarrollados por las nuevas empresas que son útiles para buscar a través de fotos de vacaciones, se pueden reutilizar fácilmente para buscar imágenes de satélite espía. El software de control necesario para el funcionamiento de un vehículo autónomo en el que están trabajando empresas como Google y Uber, no es diferente al requerido para un tanque sin conductor. Precisamente, muchos avances recientes en el desarrollo y despliegue de inteligencia artificial surgieron de investigaciones de compañías como Google, no del Pentágono. Esto no está exento de problemas propios. Muchos investigadores y científicos están preocupados por la IA militarizada. Como recordareis, más de 3.000 investigadores, científicos y ejecutivos de compañías como Microsoft y Google firmaron una carta al gobierno del musulmán encubierto Barack Hussein Obama en el 2015 exigiendo la prohibición de los robots asesinos, que cada vez son más autónomos, representando un grave peligro para la humanidad. Pero para competidores como China, esto hasta ahora no ha sido un problema. La estrategia de inteligencia artificial china vincula directamente los desarrollos comerciales y de defensa de la inteligencia artificial. Baidu, el motor de búsqueda líder del país, opera un laboratorio nacional dedicado a hacer que China sea más competitiva en el aprendizaje automático, por ejemplo. En otras palabras, el modelo de fusión militar-civil de China significa que su investigación de IA fluirá fácilmente de las empresas tecnológicas al ejército sin el tipo de barreras que algunos empleados de Google pretenden erigir en los EE. UU. Como sabéis, las tendencias existentes de automatización, monitoreo industrial basado en sensores y análisis algorítmico de procesos comerciales han recibido un enorme impulso por las nuevas técnicas de inteligencia artificial, combinadas con una potencia informática cada vez más rápida y la acumulación de años de datos digitalizados, asegurando que las computadoras ahora estén aprendiendo las tareas, que antes estaba reservada a los humanos. Eso significa que el aprendizaje automático llevará a los robots asesinos a tomar decisiones de forma autónoma sobre cuándo matar o no. Un desarrollo que hace que la carrera armamentista de la IA sin intervención humana, sea potencialmente más peligrosa que la nuclear. Si bien este desarrollo pareciera ser una en la que solo las grandes naciones globales pueden participar, esto no es estrictamente cierto. La IA también puede facilitar que los países y organizaciones más pequeños amenacen a los poderes más grandes. Las armas nucleares pueden ser más fáciles de construir que nunca, pero aún se requieren fuertes inversiones y grandes recursos, así con de avanzada tecnología y gran experiencia, todo lo cual es escaso. Por el contrario, el código y los datos digitales son más accesibles y se propagan en la Red de forma gratuita y rápida, por lo que el aprendizaje automático se está volviendo omnipresente. Hay que tener en cuenta también que el desarrollo de las entregas en drones y los vehículos autónomos de pasajeros, pueden convertirse fácilmente en poderosas herramientas de guerra asimétrica. Un ejemplo de su uso lo vimos por parte de ISIS (aquel grupo terrorista creado y financiado tanto por los EE.UU. como por Arabia Saudita y entrenado en Jordania por la CIA y el Mossad israelí, con el objetivo de crear el caos y la violencia en el Medio Oriente para ‘justificar’ el intervencionismo estadounidense en la estratégica región, pero que resulto exterminado por los rusos quienes bajo toneladas de bombas arrasaron su ilusorio ‘califato’ sionista) utilizo cuadricópteros de uso civil para lanzar granadas sobre sus enemigos. Y debido a que muchas de estas tecnologías se han desarrollado con fines comerciales, las técnicas que pueden impulsar la guerra cibernética, por ejemplo, inevitablemente encontrarán su camino en el vibrante mercado negro en herramientas y servicios de piratería. A diferencia de la carrera armamentista nuclear con su disuasión nuclear mutua que estabilizó un equilibrio militar de poder, la IA amenaza con crear un salvaje oeste de capacidades diferentes pero letales. También se convierte en una fuente potencial de inestabilidad. Si los algoritmos de aprendizaje automático pueden ser pirateados y engañados para alimentar información incorrecta a los humanos en las estructuras de comando y control, confiar en estos sistemas y algoritmos automatizados podría resultar catastrófico. La segunda área está en la conducción de futuras guerras. La IA militarizada, como robots asesinos y drones más inteligentes que pueden apoyar o trabajar junto a las tropas, significa que el enfrentamiento militar requerirá de menos soldados humanos, si es que tiene alguno. Eso significa que cuando los chips y equipos cibernéticos sea lo que se envíe a los campos de batalla - y no bolsas para cadáveres - la transformación de la política interna de la guerra cambiará fundamentalmente. Cabe destacar que los costos económicos de la guerra siempre serán políticamente controvertidos. Pero cuando una guerra puede llevarse a cabo sin la amenaza de una reacción interna a las bajas humanas, cambia la naturaleza de la guerra moderna y elimina la necesidad política de un ejército que rinda cuentas, dejando en los robots asesinos quienes decidan el curso del conflicto, lo que a muchos causan escalofríos. La sola idea de que los militares en el siglo XXI queden relevados de alguna responsabilidad ya que la IA decidirá nuestros destinos, representa una perspectiva realmente aterradora. Es esta dinámica la que sugiere que esta carrera armamentista por poseer los robots asesinos más letales, es más mortal que la nuclear, ya que estamos creando a quienes acabaran con la humanidad :(