EE.UU. y China se han lanzado a una carrera para ser el primer país capaz de desarrollar una inteligencia artificial general, conocida como AGI por su denominación en inglés (Artificial General Intelligence). Buena parte de las sanciones que han desplegado EE.UU. y sus aliados persigue que China no adquiera la capacidad de fabricar chips de vanguardia para aplicaciones de inteligencia artificial (IA). Mientras tanto, el país liderado por Xi Jinping está dedicando una gran cantidad de recursos al sostenimiento de su industria de los semiconductores. Este es el contexto en el que hace apenas unas horas la Comisión de Revisión Económica y de Seguridad EE.UU.-China del Congreso de EE.UU. ha propuesto una iniciativa que está claramente inspirada en el 'proyecto Manhattan'. Este programa de investigación reunió entre 1942 y 1945 a buena parte de los científicos más destacados del planeta en las instalaciones de 'Los Álamos' (Nuevo Méjico), Oak Ridge (Tennessee) y Hanford (Washington) con el propósito inicialmente de desarrollar la bomba atómica antes de que la tuviese en sus manos la Alemania nazi. Concluyó en agosto de 1945 con el lanzamiento de dos bombas atómicas sobre las ciudades japonesas de Hiroshima y Nagasaki. El plan de esta Comisión del Congreso de EE.UU. es, precisamente, que el Gobierno se responsabilice de respaldar e impulsar el desarrollo de sistemas de IA que sean tan "inteligentes" o más que los seres humanos. Si finalmente esta iniciativa fuese aprobada desencadenaría una colaboración a gran escala entre el Gobierno de EE.UU. y el sector privado, tal y como sucedió durante el 'proyecto Manhattan'. Jacob Helberg, un miembro destacado de la Comisión, asegura que "China se está apresurando hacia la inteligencia artificial general [...] Es fundamental que nos los tomemos muy en serio". Desde un punto de vista conceptual una AGI es un tipo de sistema automático que puede realizar con éxito cualquier tarea intelectual llevada a cabo por los seres humanos. No solo eso: esta modalidad de IA también deberá ser capaz de realizar juicios y razonamientos ante una situación de incertidumbre a partir del aprendizaje y el entrenamiento, así como de comunicarse utilizando el lenguaje natural, planificar o aprender. No obstante, también nos interesa conocer la definición que nos propone OpenAI porque introduce un matiz interesante: la inteligencia artificial general es un sistema autónomo que supera la capacidad humana a la hora de realizar la mayor parte de las tareas que tienen un valor económico. Algunos expertos utilizan los términos 'inteligencia artificial general' e 'inteligencia artificial fuerte' como sinónimos, pero otros prefieren restringir esta última denominación solo para aquellos sistemas que tienen consciencia de su propia existencia, y que, por tanto, tienen la capacidad de desarrollar sus propios sentimientos y experimentar vivencias. Actualmente podemos tener la sensación de que la AGI está cerca, pero es importante que no pasemos por alto que las IA que están a nuestro alcance hoy están muy lejos de la idea que acabamos de explorar. Elon Musk aseguró en el 2020 que estaría preparada en el 2025, pero una vez más se ha mostrado excesivamente optimista. La AGI no estará preparada el año que viene. Lo estará dentro de cinco años. Esto es al menos lo que asegura Jensen Huang, el cofundador y director general de NVIDIA. Este ejecutivo tiene una sólida base científica y siempre se muestra extremadamente cauto cuando hace una declaración, por lo que su vaticinio merece ser tenido en cuenta. Además, el liderazgo que ejerce NVIDIA en el mercado del hardware para IA avala en cierta medida sus aseveraciones. A pesar de las aparentes ventajas que plantea la aparición de una inteligencia artificial general, hay también evidentes riesgos y desafíos éticos y existenciales a la hora de trabajar en este campo y lograr éxito en el objetivo de crear una AGI. Los propios responsables de OpenAI destacaban cómo la AGI es "quizás el proyecto más importante de la historia de la humanidad", sin embargo, en un artículo en el blog oficial de la empresa sus responsables reflexionaban sobre cómo desarrollar sistemas “que sean "generalmente más inteligentes que los humanos, pero hacerlo de una forma segura”. Como sabéis, el desarrollo de modelos de inteligencia artificial se ha convertido para muchos en un riesgo existencial para la humanidad. Personalidades dentro y fuera de este campo advierten del peligro - una AGI "nos matará a todos", explicaba un experto en IA en abril del 2023 - y a principios de ese mismo año, varios expertos y personalidades firmaron una carta abierta para solicitar "pausar" el desarrollo y entrenamiento de modelos de IA para debatir cómo continuar ese trabajo de la forma más segura posible.