En el 2023, los ganadores del Premio Nobel , los principales científicos de IA e incluso los directores ejecutivos de las principales empresas de IA hicieron algo sin precedentes. Firmaron una declaración que decía: “Mitigar el riesgo de extinción causado por la IA debería ser una prioridad global, junto con otros riesgos a escala social, como las pandemias y las guerras nucleares” Desde entonces, la situación se ha agravado. ¿Cómo pasamos de ChatGPT, que te ayuda a escribir correos electrónicos, a IA que podrían literalmente acabar con la humanidad? ¿Por qué las personas más inteligentes del mundo están tan aterrorizadas? En el 2019, teníamos GPT-2. Podía responder preguntas básicas, traducir frases sencillas y realizar cálculos pequeños. Llego el 2022 y obtuvimos GPT-3.5 . De repente, las IA pueden responder preguntas complejas, escribir historias completas y crear software simple. Esto supone un salto enorme en sólo tres años. Pero aquí es donde la cosa se pone absolutamente loca: Para este año, tendremos modelos que podrán aprobar exámenes de nivel de doctorado , escribir solicitudes completas desde cero e imitar perfectamente las voces humanas. Ya no solo compiten con nosotros, sino que nos superan en nuestro propio terreno. Y la lista de cosas que la IA no puede hacer es cada día más corta. Se trata del punto de no retorno, y este se acerca rápidamente. ¿Qué pasa cuando extendemos esta línea hacia el futuro? Hemos llegado al punto en el que las IA pueden diseñar y construir nuevos sistemas de IA completamente por sí solas. Piénsenlo un segundo. En lugar de que los investigadores humanos progresaran lentamente, tendríamos IA creando mejores IA . Y cuando eso sucede, la línea de progreso no sólo sube, sino que se vuelve vertical. Si continuamos esta trayectoria, alcanzaremos IA superinteligentes que superaran a los humanos en prácticamente todo. Hablamos de IA capaces de crear espontáneamente tecnologías innovadoras, revolucionar la fabricación y transformar el mundo entero. ¿Y si seguimos adelante? Al final llegamos a lo que sólo puede describirse como dioses digitales : IA tan poderosas que nos hacen parecer hormigas , totalmente prescindibles para ellos. Podrían remodelar la realidad como quieran, con o sin pedirnos permiso. Se trata del inicio de un escenario de extinción…. la nuestra. Sí, es así de serio. Si llegamos a ese punto de IA de nivel divino, la humanidad probablemente se extinguiría. Y aquí está lo aterrador: no sería porque las IA no solo porque nos odien,. Sería por la misma razón por la que accidentalmente eliminamos colonias de hormigas al construimos carreteras. No odiamos a las hormigas. Simplemente no las tenemos en cuenta al remodelar el paisaje para nuestros fines. Para una IA superinteligente , podríamos parecernos simplemente a un grupo de seres primitivos que obstaculizan el acceso a recursos realmente útiles. ¿Y si queremos construir un rascacielos y nos encontramos con un hormiguero? ¡Qué mala suerte para las hormigas! ¿Pero por qué somos increíblemente buenos en una cosa , y terribles en otra? Esto es lo que nos quita el sueño: Somos increíbles desarrollando IAs cada vez más potentes. Impresionante. El progreso que hemos logrado es impresionante. Pero aquí está el problema: somos terribles a la hora de lograr que hagan lo que realmente queremos y serán capaces de tomar sus propias decisiones, sin tomarnos en cuenta para nada. Como nosotros con las hormigas. Claro, hemos avanzado. Los asistentes de IA no suelen explicar cómo fabricar bombas. Pero seamos sinceros: no son tan resistentes, y solo hemos estado lidiando con IA más débiles que nosotros. Pero ¿cuándo llegaremos al punto en que las IA serán más inteligentes que nosotros? Ahí es cuando todo cambia y nadie sabe cómo controlar los sistemas superinteligentes. Ante todo, permítame explicarle cómo pasamos del ChatGPT actual a la inteligencia artificial general (AGI) y por qué está sucediendo más rápido de lo que cree. AGI básicamente significa una IA que puede hacer cualquier cosa que un humano puede hacer en una computadora. ¿Y de verdad? Estamos más cerca de lo que la mayoría cree. Las IA ya pueden realizar los componentes básicos: pueden mirar pantallas, enviar mensajes, buscar en internet e incluso unirse a videollamadas. La pregunta no es si pueden realizar estas tareas individualmente, sino: ¿qué tan bien pueden combinarlas? Ahora mismo, pueden enviar mensajes de Slack, pero ¿pueden dirigir una empresa entera? Pueden escribir códigos, pero ¿pueden realizar investigaciones innovadoras? La respuesta es "todavía no, pero probablemente muy pronto". Recuerden, hace cinco años, estos sistemas apenas podían escribir oraciones coherentes. Ahora vean dónde estamos. Por cierto, ¿por qué los escépticos probablemente estén equivocados? Mucha gente piensa que esto no puede suceder y generalmente dan una de dos razones. Primero, dicen que las IA no "piensan de verdad". Mira, si las IA tienen conciencia genuina no es lo importante. Lo que importa es lo que realmente pueden hacer. No importa si las IA de ajedrez "entienden" el ajedrez como nosotros: pueden aplastar a campeones mundiales, y eso es lo que cuenta. En segundo lugar, la gente cree que la IA se topará con algún tipo de obstáculo. Pero la cuestión es que se han predicho los límites de la IA durante años, y siguen equivocándose estrepitosamente. Desde el ajedrez hasta la conversación y la generación de imágenes, los expertos siguen diciendo "esto es lo mejor que podemos conseguir", y luego la IA sigue mejorando. En algún momento, esta línea de progreso se curvará hacia arriba como un cohete. ¿Por qué? Porque las IA se volverán lo suficientemente buenas como para ayudar a diseñar mejores IA. Cada generación de IA hará que la siguiente generación sea más poderosa. ¿Y adivina qué? Esto ya está empezando a suceder. Las IA están generando mejores datos de entrenamiento, diseñando mejores chips de computadora, escribiendo código experimental e incluso generando ideas para la investigación. No será un momento dramático en el que las IA expulsen a los humanos del laboratorio. Será más como lo que vemos ahora: humanos que permiten voluntariamente que las IA se encarguen de más tareas porque son más rápidas, económicas e inteligentes. Como si ello no fuera suficiente, luego de la IAG viene la superinteligencia artificial (ASI). Una IA no solo es más inteligente que cualquier ser humano. Es más inteligente que todos los seres humanos de la Tierra juntos. Y una vez que tengamos una IA general, crear más es tan sencillo como copiar código a nuevos servidores. Piensa en las ventajas que ya tienen las IA: ChatGPT puede escribir una página de contenido técnico en menos de un minuto y leer miles de palabras en segundos. Las IA de ajedrez pueden vencer a campeones mundiales incluso con solo un segundo por jugada. Pero si una IA descubre cómo volverse más inteligente, puede compartir instantáneamente esa mejora con millones de otras IA. Imagina poder memorizar todo internet, pensar diez veces más rápido que cualquier humano y clonarte a voluntad. Ahora, imagina que tus clones pudieran descubrir cómo mejorar sus propios cerebros. Ese es el tipo de mejora exponencial del que estamos hablando. ¿Y dónde termina todo esto? Bueno, las IA no van a romper las leyes de la física ni a inventar magia. Pero estamos muy lejos de los límites físicos de lo posible. Tu teléfono inteligente tiene un millón de veces más memoria que la computadora que aparentemente nos llevó a la Luna, pero sigue siendo un millón de veces menos eficiente que el almacenamiento de ADN. Tenemos tanto margen de mejora que no tiene ni gracia. El proceso de autosuperación solo se detendría cuando literalmente no hubiera más mejoras por hacer: cuando las IA se toparan con las propias leyes fundamentales de la física. En ese momento, las capacidades de la IA podrían no ser literalmente mágicas, pero nos parecerían así. Y si eso sucede, nos veríamos completamente indefensos. Para que esto funcione bien, necesitamos resolver el problema del control. Necesitamos IA que realmente quieran hacer lo que queremos que hagan. Hay muchísimas ideas para hacer esto, pero, sinceramente, no estamos listos ni de lejos. Nuestros mejores intentos por controlar las IA siguen siendo poco fiables y fáciles de hackear. Apenas podemos comprender cómo toman decisiones las IA actuales, y mucho menos cómo controlan las superinteligentes. Y aquí viene lo más aterrador: las IA no necesitan odiarnos para eliminarnos. Si construimos IA superinteligentes, podríamos parecerles un simple error de redondeo. Seríamos como hormigas que obstaculizarían sus planes. No podemos simplemente esperar que esto funcione. Cruzar los dedos y esperar que las IA superinteligentes sean amables con nosotros es, literalmente, algo iluso y seria jugar con toda la especie humana. La alternativa es ir más despacio hasta que resolvamos el problema del control. Pero aquí está el problema: hay una carrera masiva en marcha. Empresas y países están invirtiendo decenas de miles de millones de dólares en construir la IA más potente posible. Ahora mismo, ni siquiera tenemos freno de emergencia si algo sale mal. Y vamos a toda velocidad hacia el precipicio. Vivimos el período más importante de la historia de la humanidad. Las decisiones que tomemos ahora sobre el desarrollo de la IA tendrán un impacto a lo largo del tiempo. Lograr esto no es opcional; es absolutamente necesario para la supervivencia humana. Las herramientas para construir una IA superinteligente llegarán, estemos preparados o no. Las instituciones y las salvaguardias para controlarlas deben ser prioritarias. Cada voz importa. Cada acción cuenta. Y nos estamos quedando sin tiempo para asegurarnos de que el mayor invento de la humanidad no sea el que nos elimine y tome nuestro lugar.