Como sabéis, la inteligencia artificial está revolucionando numerosos sectores, y el ámbito militar no es una excepción. La creciente capacidad de las máquinas para tomar decisiones autónomas sin la necesidad de los humanos plantea preguntas cruciales sobre la naturaleza de la guerra en el futuro cercano. Al respecto, Paul Scharre, vicepresidente de Centro para una Nueva Seguridad Estadounidense y experto en el campo de la IA aplicada a la defensa, destaca los potenciales retos y oportunidades de esta evolución. En el contexto de esta discusión, la película "The Creador" del 2023, por ejemplo, a pesar de ser un producto de entretenimiento, representa una reflexión cultural sobre los mismos temas. Pensemos en ello juntos. En dicha película, ambientada durante una futura guerra entre humanos e inteligencia artificial, el ex agente de las fuerzas especiales Joshua, angustiado por la desaparición de su esposa, es reclutado para encontrar y matar al “Creator”, el arquitecto de la IA avanzada. En realidad, esta tarea podría ser mucho más complicada. Hay varios ejemplos recientes que resaltan el potencial de la IA en el sector militar. De uno (el de los drones militares que ya son autónomos también en sus elecciones) Hablamos aquí. Seguramente os habéis oído hablar del otro. Me refiero al Desafío AlphaDogfight de DARPA, que vio a un piloto humano enfréntate a una IA en un simulador de avión. ¿El resultado? La IA dominó al piloto por una puntuación de 15 a cero, mostrando capacidades casi sobrehumanas, como disparos de precisión en fracciones de segundo que los pilotos humanos nunca podrían realizar. En una pelea real, es posible que la IA ya tenga la ventaja. Pero ¿qué significa todo esto para el futuro de la guerra? La idea de que las máquinas tomen decisiones de vida o muerte plantea cuestiones éticas complejas. Aunque tales máquinas apuntan a una precisión mucho mayor, "casi" infalible, cualquier acción fuera de la pista constituiría un crimen de guerra: pero ¿quién sería directamente responsable? Según Scharre, establecer la responsabilidad y el control directo sobre una IA puede no ser tan sencillo. Sin embargo, en un futuro próximo, es probable que los humanos utilicen la IA principalmente para tácticas y análisis. La IA puede procesar información de manera más eficiente, haciendo que los militares sean más efectivos. Pero esto también podría conducir a una dependencia cada vez mayor de la IA para la toma de decisiones, ya que la ventaja competitiva en un entorno militar puede ser demasiado tentadora para ignorarla. Para Scharre, en resumen, los humanos estamos construyendo sistemas que no comprenden completamente y que no podamos controlar, lo que nos enfrenta a amenazas sin precedentes sobre nuestra existencia. Los expertos han disuelto hace tiempo sus reservas al respecto: veremos una especie de carrera armamentista en materia de inteligencia artificial, similar a la de las armas nucleares. Algunos eruditos chinos plantearon la hipótesis de una "singularidad del campo de batalla": un punto en el que la velocidad de las decisiones impulsadas por la IA supera la capacidad de comprensión de los humanos. En tal escenario, es posible que tengamos que “entregar las llaves” de los sistemas autónomos. Finalmente, sobre el resultado de una hipotética guerra entre humanos y una inteligencia artificial que está fuera de nuestro control, Scharre no es nada optimista. Y lo deja claro con una provocativa y flagrante comparación: “¿podríamos perder alguna vez una hipotética guerra contra los monos? La IA de alto nivel no solo es mejor, sino no que no podríamos competir con ellas ni remotamente. Estaríamos, por lo tanto, condenados a la desaparición" subrayo. “Hasta hace pocos años eso no era así. Pero estamos construyendo sistemas de IA cada vez más potentes que no entendemos ni podemos controlar, y los estamos implementando en el mundo real. Creo que, si logramos construir máquinas más inteligentes que nosotros, tendremos muchos problemas” puntualizó... Saquéis vuestras propias conclusiones.