TIEMPO RE@L

domingo, 10 de agosto de 2025

WINDOWS CLASSIC REMASTERED: El sistema operativo retro que estabas buscando

Muchos usuarios están preparando el salto tras el fin de soporte oficial de Windows 10, que se hará efectivo el próximo 14 de octubre de este mismo año. Por ello, lo lógico sería actualizar hacia Windows 11, pero la realidad es que cada vez más personas lo cuestionan. Los requisitos técnicos, la obligatoriedad de tener una cuenta de Microsoft, la apuesta constante por la inteligencia artificial o las actualizaciones poco transparentes generan desconfianza. En vez de una evolución natural, parece un sistema pensado para controlar tu experiencia, no para facilitarla. En este contexto ha ganado notoriedad un proyecto muy distinto, el cual no se trata de una alternativa que puedas instalar, sino de una propuesta conceptual creada por el diseñador digital AR 4789. Se llama Windows Classic Remastered, o simplemente Windows CR, y no es más que un concepto de cómo sería Windows si hubiese seguido apostando por la simplicidad, la coherencia visual y el control del usuario a lo largo de los años. Combina la estabilidad de Windows XP, el orden de Windows 95 y la rapidez de Windows 98 e integra ideas modernas – accesos rápidos, opciones de personalización, asistentes con IA – sin sacrificar lo que muchos echan de menos, que es una interfaz limpia, sin capas que dificulten lo básico. Es importante mencionar que la propuesta ha captado miles de miradas porque, aunque no se puede descargar ni instalar, debido a que es un concepto, sí refleja algo que muchos usuarios actuales sienten, que con Windows 11 algo esencial se ha perdido. El entorno recuerda a los años 90, pero no se siente anticuado. Todo está en su sitio, con menús accesibles, iconos familiares y un diseño que no distrae. Nada de widgets innecesarios, ni barras redimensionadas que cambian según la aplicación, donde el sistema parece diseñado para funcionar. Asimismo, el panel de control vuelve a tener sentido, puesto que ya no está escondido ni repartido entre diferentes secciones como ocurre hoy. Aquí está unificado, reconocible, sin necesidad de buscar por duplicado entre Configuración y Herramientas del sistema. Las barras de tareas conservan su apariencia clásica, pero permiten configuraciones modernas, como los escritorios múltiples o el acceso rápido a funciones clave. Una de las sorpresas más comentadas es el regreso de Clippy, el mítico asistente con forma de clip. En esta versión, Clippy es una ayuda real, mejorada, con funciones de inteligencia artificial más sutiles que informa sin interrumpir. Eso mismo, llevado al límite, invita a preguntarse: ¿por qué las soluciones actuales como Copilot resultan tan invasivas? El vídeo es perfecto para quienes crecieron con Windows XP debido a que no solo recuerdan una estética; recuerdan la sensación de tener el control. Ahora, esa experiencia se ha fragmentado en capas que muchas veces complican lo más básico. Lamentablemente, Windows Classic Remastered no es un sistema operativo real, por lo que no puedes instalarlo, ni descargarlo, ni trastear con él en una máquina virtual. Es una idea ejecutada que muestra de que se puede imaginar un Windows distinto al que Microsoft nos está vendiendo. Windows 11 no es un mal sistema operativo, ya que es rápido, visualmente atractivo y tiene funciones que pueden resultar útiles. Integra herramientas de inteligencia artificial, un nuevo diseño más centrado en la productividad y mayor seguridad. Sin embargo, lo que ha perdido por el camino pesa más que lo que ha ganado. Para empezar, sus requisitos de instalación han dejado fuera a millones de equipos que siguen siendo perfectamente funcionales. El chip TPM 2.0, la exigencia de UEFI o el arranque seguro no son barreras técnicas imposibles, pero sí arbitrarias para muchos usuarios. Tampoco ayuda que las actualizaciones sean menos predecibles, a veces corrigen errores, otras traen funciones no solicitadas. La sensación de control se ha diluido, por lo que muchos usuarios sienten que el sistema ya no se adapta a ellos, sino que ellos tienen que adaptarse al sistema. Y luego está la IA. Windows 11 ha integrado Copilot como asistente inteligente que, en teoría, una ventaja. En la práctica, muchos lo ven como una función impuesta, con poca utilidad real y con un alto coste en recursos en los ordenadores. Por todo eso, el salto desde Windows 10 se está resistiendo, y es que, a pesar del fin de soporte previsto, muchos usuarios prefieren mantenerse en un entorno que conocen, que funciona y que no les impone un modelo de uso que no han solicitado.

domingo, 3 de agosto de 2025

UNA ATEMORIZANTE PREGUNTA: ¿Podríamos controlar a una inteligencia artificial que fuese consciente?

Aquellos contemporáneos de los dinosaurios posiblemente recordarán aquella escena de la película 2001: A Space Odyssey (2001: Una odisea del espacio(, en la que el superordenador Hal se resiste a ser desconectado por sus controladores. La voz del artilugio artificial era tan expresiva que parecía un llanto rogatorio, suplicando seguir en activo. Pero, al dejar de obedecer órdenes y mostrar cierta autonomía decisoria, atemorizó a quienes servía y por eso creyeron necesario desconectarlo. Era la inteligencia artificial rebelada contra sus dueños. ¿Podría ocurrir algo así en nuestra realidad actual, fuera de la ficción cinematográfica? Según una encuesta entre ingenieros de la inteligencia artificial, muchos creen que, más pronto que tarde se van a desarrollar sistemas con un nivel similar al del razonamiento humano en un amplio rango de tareas cognitivas, pero no sabemos si esos sistemas podrán tomar decisiones más racionales que las nuestras. Hasta el momento, lo que se ha observado es que los modelos artificiales de lenguaje también muestran irracionalidades como las humanas. Ante esa dicotomía, la pregunta es ¿cómo piensa y decide un GPT, dotado de cientos de miles de millones de parámetros que usa internamente para tomar decisiones? Algunos expertos creen que ese grado de complejidad le puede conferir al sistema una cierta autonomía, de tal modo que ni siquiera lleguemos a saber todo lo que, en su intimidad, está haciendo. Pero, ¿qué ocurriría si, además de esa complejidad técnica, o gracias a ella, el sistema se hiciera espontáneamente consciente? ¿Es eso posible?Algunos científicos creen que la consciencia, un estado subjetivo de la mente, no es más que un epifenómeno, es decir, algo colateral al funcionamiento del cerebro, tan innecesario e intrascendente como el ruido de un motor o el humo del fuego. Pero otros creen que, lejos de no servir para algo importante, la consciencia funciona como un espejo de la imaginación creado por el propio cerebro que contribuye necesariamente a decidir y controlar el comportamiento. Todavía no sabemos cómo el cerebro hace posible la consciencia, pero una de las grandes teorías que tratan de explicarlo, la teoría de la integración funcional, sostiene que la consciencia es una propiedad intrínseca y causal de los sistemas complejos como el cerebro humano. Es decir, que la consciencia surge espontáneamente en esos sistemas cuando alcanzan una determinada complejidad estructural y funcional. Eso significa que, si los ingenieros fueran capaces de construir un sistema artificial tan complejo como el cerebro humano o equivalente a él, ese sistema sería espontáneamente consciente, incluso aunque, como ocurre en el propio cerebro, no entendiéramos cómo es posible que lo fuera.Por si eso llegara a ocurrir, un mar de preguntas nos invade. La primera es: ¿cómo sabríamos si una computadora o artilugio artificial es consciente y cómo se relacionaría con nosotros? ¿Solo por audios o escritos en una pantalla? ¿Requeriría un cuerpo material expresivo, equivalente al de una persona, para manifestarse e interactuar con su entorno? ¿Acaso podrían existir (o existen) en nuestro universo ingenios o entidades conscientes sin que tengan modo alguno de hacérnoslo saber? ¿Podría, en cualquier caso, un ingenio artificial consciente superar a la inteligencia humana y tomar decisiones más racionales y acertadas que las nuestras? Pero, eso no es todo, porque, como en el caso de la supercomputadora Hal, otras preguntas pueden llegar a atemorizarnos. Un sistema artificial consciente, ¿desarrollaría, como lo hace nuestro cerebro, un sentido del yo y de agencia? Es decir, ¿podría sentirse capaz de actuar voluntariamente e influir en su entorno al margen de las instrucciones que recibiera de sus creadores? Ya puestos, ¿podría ese sistema ser más persuasivo que los humanos para influir, por ejemplo, en decisiones que nos competen a nosotros y no a las maquinas? Es mas ¿podría un sistema de esa naturaleza llegar a tener sentimientos? ¿Cómo lo sabríamos si no los pudiéramos ver reflejados en la expresión de un rostro o imagen cuya cualidad y sinceridad pudiéramos valorar como hacemos para entender los sentimientos de las demás personas distinguiendo una sonrisa falsa de una verdadera? Y, quizá lo más importante, ¿cómo esos sentimientos, si el ingenio artificial los tuviera, influirían en sus decisiones? ¿Lo harían de modo tan determinante como lo hacen en las nuestras? ¿Estaríamos, de ese modo, construyendo una especie de humano artificial con responsabilidades éticas y jurídicas? ¿O esas responsabilidades tendrían que ser derivadas a sus creadores? ¿Un sistema artificial consciente podría merecer un premio Nobel si descubriera una cura para la violencia de género o el Alzheimer? ¿Discutiría con nosotros una máquina consciente como lo haría otra persona? ¿Podríamos influir en sus decisiones, o podría, como Hal, dejar de hacernos caso y tomar las suyas propias, aunque fuesen incompatibles con las nuestras? Ello es lo más probable… y lo que más tememos. En 1997, Rosalind Picard, ingeniera norteamericana del MIT, publicó Affective computing. Fue como un ancestral intento de considerar y valorar la importancia de las emociones en la inteligencia artificial. Para que los ordenadores sean genuinamente inteligentes y puedan interactuar con nosotros de un modo natural, debemos dotarlos con la capacidad de reconocer, comprender e incluso tener y expresar emociones. El problema era, y sigue siéndolo ahora, que las emociones son los cambios reflejos y automáticos (hormonas, resistencia eléctrica de la piel, frecuencia cardíaca, etc.), casi todos inconscientes, que ocurren en nuestro cuerpo ante pensamientos o circunstancias impactantes (enfermedades, accidentes, pérdidas, éxitos, fracasos o aciertos sentimentales, etc.), mientras que los sentimientos son las percepciones conscientes (miedo, amor, envidia, odio, vanidad, etc.) que el cerebro crea al notar retroactivamente esos cambios corporales que él mismo origina. Actualmente, a muchos años de la publicación de dicho libro, solo concebimos la posibilidad de implementar en los ingenios artificiales cambios físicos inconscientes, equivalentes a las emociones humanas, pero, estamos todavía muy lejos de poder hacer que esos cambios generen en sus portadores sentimientos como los que tenemos los humanos. Eso, si llegara a ocurrir, lo cambiaría todo.

domingo, 27 de julio de 2025

AL SERVICIO DE LOS GENOCIDAS: Grandes empresas tecnológicas hacen negocios con Israel

La bestia sionista, que hace morir de hambre a miles de niños palestinos en la asediada Franja de Gaza ante la vista de todo el mundo que no se inmuta ante este monstruoso crimen, tiene motivos para estar contento. Y es que sus negocios con las empresas tecnológicas son cada vez más suculentos. En efecto, Google, Microsoft, Apple, Twitter, Meta y Amazon - entre otras - se van a la guerra. No es una metáfora. Tras años evitando que se les vincule públicamente con el complejo militar-industrial, las Big Tech se han echado al monte. La vuelta de Donald Trump a la Casa Blanca ha sido el empujón definitivo para que a muchas compañías les deje de dar apuro firmar contratos con el Ejército. Más allá de la conexión de los tecnomagnates con el presidente de EE. UU. escenificada en su ceremonia de toma de posesión, este quiere invertir un billón de dólares en el 2026 para “modernizar” las fuerzas armadas, lo que, desde su punto de vista, pasa por introducir la inteligencia artificial (IA) en la defensa.Eso es música para los oídos de los gigantes de Silicon Valley, que esta semana ya han visto que el republicano va en serio. OpenAI, Google, Anthropic y xAI (la empresa de IA del denostado y caído en desgracia Elon Musk), han obtenido contratos de hasta 200 millones de dólares cada uno para fomentar las capacidades avanzadas de IA en el Departamento de Defensa.La contratación de funcionarios del Pentágono por parte de las tecnológicas no es una novedad. Meta ha protagonizado recientemente esfuerzos en ese sentido, según desveló Forbes, “para que le ayuden a vender sus servicios de realidad virtual e IA al gobierno federal”. Lo que no es tan habitual es que los fichajes se realicen en sentido inverso. En junio, el Ejército anunció el nombramiento de cuatro tenientes coroneles en la reserva para el nuevo Destacamento 201, también conocido como el Cuerpo Ejecutivo de Innovación, encargado de “fusionar experiencia tecnológica puntera con innovación militar”. Los elegidos son Adam Bosworth, jefe de tecnología de Meta y hombre de confianza de Zuckerberg; Kevin Weil, responsable de producto de OpenAI; Shyam Sankar, director de tecnología en Palantir, y Bob McGrew, exdirectivo de Palantir y OpenAI.El hecho de que haya ejecutivos con galones militares es tan simbólico como indicativo del momento que atravesamos. Se están diluyendo a pasos agigantados las fronteras entre Silicon Valley y el Pentágono.El cortejo es constante en los últimos tiempos. Google eliminó en febrero de su código de conducta la restricción a desarrollar armas o herramientas de vigilancia masiva. Microsoft reconoció en mayo que, desde que se inició la invasión de Gaza y el asesinato en masa de la población palestina, ha vendido al ejército israelí tecnología avanzada de IA y servicios de computación en la nube. OpenAI, la empresa desarrolladora de ChatGPT, se hizo en junio con otro contrato de 200 millones de dólares por el cual facilitará al Pentágono sus herramientas de IA generativa. La compañía también cambió en enero de 2024 su política de uso para suprimir la prohibición que impedía utilizar su tecnología en tareas “militares y de guerra”: ahora se permiten los “casos de uso de seguridad nacional que se alineen con nuestra misión”. Ya en diciembre, la empresa anunció una alianza con Anduril, una startup de tecnología militar que ha configurado junto a Palantir un consorcio para presentarse a concursos de Defensa.En noviembre, Meta desveló que había dado luz verde para que sus modelos de IA estén disponibles para los contratistas militares Lockheed Martin y Booz Allen. Scale AI, la empresa en la que Meta invertirá 14.300 millones de dólares y a cuyo fundador, Alexandr Wang, ha fichado para su división de investigación en IA general, es la elegida por el Pentágono para realizar los tests y evaluaciones de los grandes modelos de lenguaje que usará el ejército. En mayo de este mes, la empresa fundada por el judío Mark Zuckerberg hizo público un acuerdo con Anduril para desarrollar gafas de realidad virtual y mixta para los soldados. Al respecto, la relatora especial de Naciones Unidas en los territorios palestinos ocupados, Francesca Albanese, describió en un informe cómo la tecnología corporativa, los proveedores de servicios en la nube y las empresas armamentísticas están profundamente entrelazados en una “economía del genocidio”. De acuerdo con el informe, Microsoft, HP, IBM, Google y Amazon, entre otras, están implicadas en tecnologías de vigilancia allí desplegadas. IBM ha contribuido a la recopilación y uso gubernamental de bases de datos biométricos de palestinos, mientras que tanto Microsoft y Palantir como Google y Amazon dan soporte en la nube y a los sistemas del gobierno y el Ejército israelí. Pero como era de esperar, Albanese ha sido sancionada por EE.UU. por sus denuncias.“Desde la perspectiva de la historia de la tecnología, diría que hay una continuidad. Nuestro concepto occidental de tecnología moderna tiene su génesis en el ámbito militar o de la seguridad”, sostiene Lorena Jaume-Palasí, experta en ética y filosofía del derecho aplicadas a la tecnología. Internet se concibió como un sistema de comunicaciones seguro para las fuerzas armadas. Antes de llevarnos a destino en los viajes, el GPS guiaba a los misiles y submarinos. Y como estos hay incontables ejemplos.Luego está la cuestión del tamaño. Ocho de las diez mayores empresas del mundo por capitalización bursátil son tecnológicas y estadounidenses: Nvidia, Microsoft, Apple, Amazon, Alphabet, Meta, Broadcom (fabricantes de semiconductores) y Tesla. Solo dos, la saudí Aramco y el fondo Berkshire Hathaway, se dedican a otros negocios. Sería osado minusvalorar la capacidad de influencia de la industria más poderosa del mundo. Han conseguido, por ejemplo, que el desarrollo de una IA cada vez más potente sea considerada una cuestión de seguridad nacional, aunque detrás esté el ánimo de lucro y se perjudique al medioambiente. El propio Trump ha dicho en varias ocasiones de que las empresas estadounidenses “deben ganarle a China la carrera armamentística de la IA” que está en clara ventaja.“Nosotros argumentamos que eso es simplemente una cobertura para que estas empresas concentren todavía más poder y fondos”, dice HeidyKhlaaf, científica jefa de IA en AI NowInstitute, un centro de investigación enfocado en las consecuencias sociales de la IA. Presentarse como protagonistas de una cruzada casi civilizatoria protege a las tecnológicas de “fricciones regulatorias”, al tildar cualquier llamamiento a la rendición de cuentas como “un perjuicio a los intereses nacionales”. Y les permite posicionarse “no solo como demasiado grandes, sino también como demasiado importantes estratégicamente para fracasar”, lee un reciente informe de AI NowInstitute.Sin embargo, el hecho de que las grandes corporaciones de la tecnología comercial manejen asuntos de seguridad nacional puede traer problemas. “Los modelos como Llama de Meta o GPT-4 de OpenAI introducen vulnerabilidades de ciberseguridad, creando nuevos vectores a través de los cuáles los países enemigos pueden dañar nuestra seguridad”, escribió hace poco Khlaaf en una tribuna de opinión en The New York Times. Esos sistemas se pueden manipular “envenenando los datos” con los que se han entrenado. “Las empresas de IA han podido eludir los estándares militares que deben seguir los sistemas de defensa, promoviendo una narrativa infundada de carrera armamentista en IA. La seguridad nacional sigue siendo una fuerza clave que moldea la formulación de políticas en torno a la IA, y es utilizada por las empresas del sector tanto para evitar regulaciones como para atraer inversiones”, aseguro. Khlaaf recuerda que si estas corporaciones pueden hacer negocios con el sector militar es gracias a todos nosotros. “La información personal identificable utilizada para entrenar los modelos permite que la IA sea usada con fines militares, como en capacidades ISTAR (inteligencia, vigilancia, adquisición de objetivos y reconocimiento), ya que esos datos permiten a los sistemas vigilar y apuntar a poblaciones específicas”, subraya. “En última instancia, seamos o no usuarios de herramientas de IA, nuestros datos hacen posible que la IA se use con fines militares y de vigilancia sin nuestro consentimiento”.La nueva orientación de las grandes tecnológicas genera contradicciones internas. Muchos trabajadores han organizado protestas o hasta han dimitido por la vinculación de sus compañías con el sector militar. Entre los últimos episodios destacan las manifestaciones en abril del año pasado de empleados de Google en la sede de Nueva York, Sunnyvale (California), San Francisco y Seattle de la multinacional. El motivo: el llamado proyecto Nimbus, un contrato de unos 1.200 millones de dólares por los que presta soluciones en la nube al régimen sionista y a sus fuerzas armadas. Esas protestas se saldaron con 28 despidos.Más recientemente, en abril de este año, Microsoft despidió a dos trabajadores que se quejaron públicamente del suministro de IA a Israel. En febrero, otros cinco empleados fueron expulsados de una reunión en la sede central de Redmond con el director general de la compañía, Satya Nadella, por protestar contra los contratos para proporcionar servicios de inteligencia artificial y computación en la nube al ejercito sionista.“Los valores democráticos occidentales están amenazados”, dijo a Axios el fundador de Google DeepMind, DemisHassabis, luego de que su matriz cambiara el código de conducta de la compañía para dar cabida a actividades relacionadas con el sector militar. “Tenemos el deber de poder ayudar en aquello en lo que estamos especialmente capacitados y en posición de hacerlo”. El también premio Nobel de Química puso como ejemplo el desarrollo de defensas contra ciberataques y ataque biológicos impulsados por IA. “He dicho en varias ocasiones que estoy en contra de las armas autónomas, pero algunos países las están construyendo. Eso es simplemente una realidad”.

domingo, 20 de julio de 2025

¿PODEMOS VIAJAR AL CENTRO DE LA TIERRA?: El sueño de Verne y la realidad de la evolución tecnológica

Jules Verne, autor de un sinfín de relatos sobre hazañas y descubrimientos en los lugares más recónditos, es para muchos uno de los escritores más geniales del siglo XIX. Sus historias sobre osados aventureros que no dudan en explorar las entrañas de la Tierra constituyeron una fuente permanente de emoción e interés popular. Pero el ingenio de Verne fue más allá de su fértil imaginación. El escritor planteó interrogantes nada fantasiosos para los científicos: ¿cómo debe de ser el interior del planeta?, ¿puede alcanzarse su punto más profundo? Sus fantasías y los conocimientos del geólogo Charles Joseph Sainte-Claire Deville (inmerso en el estudio de los conductos y las estructuras de los volcanes) se unieron con éxito en A Journey to the center on the Earth (Viaje al centro de la Tierra - 1864). La novela cuenta cómo el profesor Lidenbrock, acompañado por su sobrino y un guía islandés - cazador de eiders -, alcanzan el centro del planeta tras descender por el cráter del volcán Sneffels, en Islandia, y emergen de nuevo a través del Stromboli, en Sicilia. Verne imaginó que en el interior terrestre había un mar habitado por criaturas prehistóricas. Así, los expedicionarios presencian asombrados el combate entre dos reptiles marinos extintos (un ictiosaurio y un plesiosaurio) en medio de agitadas aguas. El relato se concibió en una época en que los geólogos empezaban a sentar las bases metodológicas de su incipiente ciencia. Pero a diferencia de los exploradores vernianos, hoy los geofísicos disponen de técnicas capaces de aportar valiosa información sobre la constitución del interior terrestre sin haberse aventurado personalmente en sus profundidades. Incluso es posible recrear las condiciones del centro de la Tierra en un laboratorio (aunque claro, son solo teorías que no siempre son certeras).No obstante, la pregunta sigue en el aire: ¿podremos algún día alcanzar el centro de la Tierra? El objetivo plantea retos imposibles de lograr hoy. El interior del globo es un medio mucho más hostil que el espacio exterior o las profundidades marinas. En él, las presiones son tan intensas y las temperaturas tan elevadas que cualquier vehículo que se viera sometido a ellas acabaría aplastado o fundido.En Viaje al centro de la Tierra, Jules Verne no proveyó a sus exploradores de un transporte. Estos simplemente descienden a pie, cruzando simas y galerías. Pero la realidad geológica es muy distinta, no existen cavernas que conecten su interior. Para llegar hasta allí necesitaríamos una tecnología e ingeniería pesada extremadamente complejas. No obstante, cada vez conocemos mejor los entresijos de nuestro mundo, e ingeniosos proyectos esperan batir récords de profundidad.Al igual que una ecografía muestra el desarrollo de un feto en el vientre materno, la sismología revela información de cómo está constituido el interior terrestre. Pero, mientras que el ecógrafo genera un sistema de ondas y registra su desplazamiento a través del cuerpo humano en diferentes velocidades, el sismógrafo depende de la aparición de ondas sísmicas (cerca de un millón al año) para captar qué sucede en las entrañas de nuestro planeta.La velocidad a la que este tipo de ondas se desplaza por el manto terrestre (ubicado justo por debajo de la superficie) permite averiguar la estructura de la Tierra. Desde principios del siglo XX se sabe que las ondas sísmicas atraviesan las rocas frías a mayor velocidad que las calientes. Su llegada a la superficie se registra en la actualidad mediante un sistema de monitores repartidos por todo el mundo, y los datos obtenidos por estos son transformados luego en imágenes similares a representaciones gráficas de sonidos.El interior de la Tierra no se está quieto. Las rocas calientes ascienden a la superficie en grandes masas (las denominadas plumas) y las frías se hunden en el manto en enormes grietas (o zonas de subducción). Se trata de movimientos que se vienen produciendo de forma constante desde que la Tierra tiene una corteza estable.En los años noventa del siglo pasado, el científico Paul Tackley, por entonces profesor en la Universidad de California de Los Ángeles, se propuso dilucidar estos fenómenos en imágenes tridimensionales. Él y su equipo simularon el movimiento del manto a lo largo de... ¡dos mil millones de años! ¿Cómo “se comportan” las rocas del interior terrestre ante las extremas condiciones que reinan en el manto o incluso el núcleo, el corazón de planeta? Para averiguarlo, los petrólogos experimentan en los laboratorios con diamantes, los materiales de mayor dureza y conductividad térmica. Las muestras se colocan en un dispositivo capaz de simular las enormes presiones y temperaturas existentes en el interior del globo. Pueden obtenerse presiones del orden de los cuatro millones de atmósferas y calentamientos por medio de rayos láser de miles de grados centígrados. Por cierto, la carrera científica entre EE. UU. y Rusia durante la guerra fría no se libró solo en el espacio. Bajo nuestros pies ambos países se marcaron otra meta: perforar la Tierra hasta la frontera entre la corteza y el manto, una zona conocida como discontinuidad de Mohorovicic, o Moho (su abreviatura).Los norteamericanos dieron el primer paso. En 1957, el oceanógrafo Walter Munk propuso perforar la corteza oceánica en una zona cercana a la costa de México. El proyecto, denominado Mohole (juego de palabras entre Moho y hole, agujero), expiró luego de nueve años, víctima de la improvisación presupuestaria y de las desavenencias políticas. Tan solo se pudo penetrar 183 m en la corteza oceánica, una distancia nada desdeñable para la época, pero muy por debajo de las expectativas (hasta 4.500 m). En tanto, los rusos contraatacaron en 1970 desde tierra firme. Durante dos décadas, el pozo que abrieron con fines científicos en la península de Kola, en el norte del país, fue el más hondo del mundo. Consistía en una perforación central de la que partían varias ramificaciones. La más extensa de ellas, la SG-3, alcanzó los 12.262 m de profundidad en 1989, no sin esfuerzo.Los operarios tuvieron que hacer frente a un derrumbe, retroceder en el camino horadado varios kilómetros e iniciar un nuevo ramal de perforación. Las elevadas temperaturas (180 °C a 10.000 m bajo tierra) les impidieron penetrar aún más en el planeta. Sus trabajos se detuvieron en 1992, aunque el proyecto se mantuvo hasta el 2005, cuando se finiquitó por falta de financiación. Cabe precisar que el interés por conseguir muestras directas del manto superior ha disminuido entre los petrólogos y los geoquímicos, ya que estos pueden conocer la naturaleza química de esta zona terrestre mediante pruebas indirectas y estudios de laboratorio. Pese a ello, ha habido varios proyectos de sondeos marinos, alguno todavía en marcha.El primero de ellos, el Deep Sea Drilling Project (DSDP, o Proyecto de Sondeo del Mar Profundo), estuvo activo de 1966 a 1983, primero bajo bandera únicamente estadounidense y luego con contribuciones internacionales. El DSDP tuvo su centro de operaciones en el Glomar Challenger, el primer barco diseñado para perforar el lecho marino. Las operaciones confirmaron el movimiento de los continentes y la relativa juventud (en términos geológicos) de los suelos oceánicos, con no más de 200 millones de años de antigüedad. Además, proporcionaron valiosos datos acerca de la circulación de las aguas en el pasado y de la composición de su fondo, una información muy útil para las petroleras a la hora de emplazar potenciales reservorios. Registraron también un récord de profundidad de un sondeo marino, los 1.741 m. Su sucesor, el Ocean Drilling Program (ODP, Programa de Sondeo Oceánico), fue desde su inicio, en 1985, hasta su fin, en el 2003, un proyecto de colaboración científica entre varios países. Desde el JOIDES Resolution, un buque más grande y avanzado que el Glomar Challenger, se realizaron 120 expediciones y 2.000 hoyos. El proyecto se saldó con una nueva marca de profundidad, los 2.111 m. El tercer programa de la lista, el Integrated Ocean Drilling Program (IODP, Programa de Sondeo Oceánico Integrado), activo entre el 2003 y el 2013, recogió el espíritu colaborativo de sus antecesores (contó con la participación de 26 países), pero se distinguió de los arriba descritos en que llevó a cabo sus operaciones desde múltiples plataformas. En el 2013 inició una nueva fase bajo el nombre de International Ocean Discovery Program, aún en activo.Las compañías petrolíferas han sabido aprovechar los avances en tecnología de perforación de todos estos programas para descubrir bolsas de crudo. De hecho, la iniciativa económica está detrás de las mayores cotas de profundidad alcanzadas. Así, en el 2008, la empresa danesa Maersk Oil logró penetrar 12.290 m de corteza continental en su campo petrolífero de Al Shaheen, en Qatar, y en el 2017 ExxonMobil llegó a los 15.000 metros en un pozo petrolero en alta mar cerca de la isla rusa de Sajalín.No obstante, los científicos esperan superar esta marca. Aunque hoy por hoy son conscientes de que es imposible llegar al núcleo terrestre, se siguen ideando métodos para llegar a lo más profundo posible. En la década pasada, el fisicoquímico moldavo-británico Michael Ojovan se puso al frente de un equipo de la Universidad de Sheffield, en Gran Bretaña, y otro del Instituto de Materiales Inorgánicos de Bochvar, en Rusia, que buscaban superar los 100 km mediante el uso de una pequeña probeta con un radio inferior a un metro.Su trabajo contemplaba el descenso de una especie de cápsula que fundiese las rocas. El hecho de estar fabricada parcialmente en tungsteno, un material altamente resistente, la salvaría de desaparecer derretida hasta alcanzar los 3.410 °C. La odisea recuerda a las nacidas de la pluma de Verne. Si bien alcanzar el núcleo del planeta no es factible debido a la complejidad de la empresa, se desconoce si un hoyo tan profundo alteraría la estructura terrestre.

domingo, 13 de julio de 2025

VIVIENDO BAJO UNA PERMANENTE AMENAZA: Ejército chino advierte sobre el peligro que representan los robots asesinos

El diario oficial del Ejército Popular de Liberación de China - PLA Daily - ha publicado este jueves un análisis relativo al uso de robots humanoides en la esfera militar, según da cuenta South China Morning Post. En efecto, el periódico oficial del ejército chino advirtió sobre posibles preocupaciones éticas asociadas con el uso de combatientes humanoides, afirmando que los militares deberían realizar “investigaciones éticas y legales sobre los robots humanoides para evitar trampas morales”. “Los robots humanoides militares son las armas más parecidas a los humanos hasta la fecha, y su uso normalizado y a gran escala podría conducir a asesinatos indiscriminados y muertes accidentales, lo que inevitablemente resultaría en cargos legales y condena moral”, dice el artículo. Este fue firmado por Yuan Yi, Ma Ye y Yue Shiguang, pero el periódico no especificó sus afiliaciones. Los autores citaron las Tres Leyes de la Robótica del escritor de ciencia ficción estadounidense Isaac Asimov, un conjunto de principios escrito en 1942, que han influido en los debates sobre la ética de las aplicaciones del mundo real en este campo. Los autores dijeron que los robots humanoides militarizados “claramente violan” la primera de las leyes de Asimov, que establece que un robot “no puede dañar a un ser humano o, por inacción, permitir que un ser humano sufra daño”. Agregaron que las leyes de Asimov necesitaban ser revisadas a la luz de estos acontecimientos. También destacaron las implicaciones legales, diciendo que los robots humanoides en escenarios militares deben cumplir con los principios fundamentales de las leyes de la guerra al “obedecer, respetar y proteger a los humanos”. Según los autores, estos robots deberían ser capaces de “suspender y limitar el uso excesivo de la fuerza de manera oportuna y no matar personas indiscriminadamente”. Agregaron que las mayores ventajas de los robots humanoides eran sus brazos mecánicos y su “capacidad de utilizar la maquinaria de manera flexible”. Según los autores, “un gran número de tareas militares que no pueden ser sustituidas por sistemas no tripulados activos pueden incluirse en la lista de tareas requeridas para los robots humanoides”. El artículo afirma que los militares deberían “estudiar cuidadosamente y proponer” los requisitos militares para planificar el desarrollo de robots humanoides. También reconoció que estos tenían limitaciones en términos de velocidad y adaptabilidad ambiental y que, comparados con otros equipos no tripulados, eran “más caros y más complejos de implementar tecnológicamente”. “Incluso si los robots humanoides maduran y se utilizan ampliamente en el futuro, no reemplazarán por completo a otros sistemas no tripulados”, afirmaron. Este fue el último de varios artículos del PLA Daily que abordan el uso de robots humanoides en el campo de batalla. En mayo, un artículo afirmaba que los robots humanoides podrían «seguir transformando la percepción de la humanidad sobre el futuro de la guerra». El artículo de mayo señalaba que los robots humanoides poseían «capacidades de toma de decisiones inteligentes y de combate autónomo basadas en algoritmos de inteligencia artificial (IA)». Elogiaba su capacidad para evaluar inteligentemente el entorno del campo de batalla y «completar misiones de combate de forma autónoma». Como sabéis, los robots humanoides se sitúan en la intersección de la inteligencia artificial , la fabricación avanzada y la inteligencia incorporada: áreas fundamentales para los esfuerzos de China por obtener una ventaja en su feroz competencia con Estados Unidos. Varias empresas chinas han introducido robots muy versátiles este año, lo que aumenta la confianza en la tecnología, y Beijing está ansioso por consolidar el liderazgo inicial de China en este campo. Los robots humanoides se utilizan principalmente en aplicaciones industriales como la logística y la fabricación, mientras que otros se utilizan en investigación, instituciones educativas y la industria de servicios. Actualmente varios países están compitiendo para desarrollar robots humanoides para uso militar, aunque su despliegue a gran escala sigue siendo - de momento - una perspectiva lejana, pero cuando esta llegue, debemos estar preparados ante los riesgos que representarían a los humanos.

domingo, 6 de julio de 2025

THE BUZZER: ¿La radio del Juicio Final?

Una extraña señal de la era soviética lleva más de 40 años sonando. Algunos dicen que es un detonador nuclear. Otros, alienígenas. Nadie sabe quién está detrás.En efecto, en la frecuencia 4625 kHz, un zumbido mecánico sordo resuena sin cesar, día y noche, invierno y verano, a través de fronteras y décadas. El sonido es constante, casi hipnótico. A veces falla. Una breve pausa. Entonces, una voz emerge entre la estática: “Tengo 143 años. No recibo respuesta”.Luego, silencio. Y el bullicio se reanuda.Nadie se ha atribuido oficialmente la transmisión. No hay identificación de la estación, ni explicaciones, ni propósito confirmado. Pero ha estado transmitiendo, casi sin interrupción, desde finales de la década de 1970. Los radioaficionados de todo el mundo lo llaman The Buzzer (El Zumbador). Con el paso de los años, la señal ha inspirado una creciente mitología. Algunos creen que forma parte de un interruptor de emergencia de la era soviética: un sistema nuclear de último recurso diseñado para tomar represalias automáticamente si el liderazgo ruso es aniquilado. Otros piensan que podría ser una herramienta para comunicarse con espías, o incluso con extraterrestres. Las teorías van desde lo plausible hasta lo absurdo.Como todos los buenos misterios de la Guerra Fría, su verdadero poder no reside en lo que sabemos, sino en lo que no sabemos.Al igual que el pozo superprofundo de Kola (el verdadero proyecto de perforación ruso que inspiró leyendas urbanas sobre que habría captado “los sonidos del infierno”), The Buzzer vive en ese fértil crepúsculo entre los hechos y la ficción, el secreto y la especulación.En Occidente, la historia de la Guerra Fría suele estar bien documentada y desclasificada. Pero los experimentos de la era soviética permanecen sepultados bajo capas de mitos, rumores y un silencio deliberado. Esta opacidad ha dado lugar a un género único de folclore postsoviético: inquietante, atmosférico y profundamente cautivador.Y pocas historias lo ilustran mejor que aquella sobre una plataforma de perforación en la gélida tundra siberiana, un descenso a la corteza terrestre y un grito desgarrador desde el abismo.Una de las historias más perdurables de este oscuro canon surgió en línea a mediados de la década del 2000 y aún circula por todos lados. Según la historia, un equipo de científicos rusos que perforaba profundamente el permafrost siberiano descubrió algo inesperado. A profundidades sin precedentes - aparentemente incluso más allá de la Fosa de las Marianas - las temperaturas se dispararon drásticamente. Curiosos, introdujeron un micrófono resistente al calor en el pozo.Lo que regresó fue... antinatural. Gritos. Miles de ellos. Voces indistintas que clamaban de agonía, resonando desde las profundidades. Los científicos, según cuenta la historia, al darse cuenta de que estas provenían del mismísimo infierno, enloquecieron o huyeron del lugar horrorizados.La leyenda de "los sonidos del infierno" se convirtió instantáneamente en un clásico de Internet y en una tormenta perfecta de paranoia de la Guerra Fría, ansiedad espiritual y misterio postsoviético. En realidad, aun existe el pozo donde sucedieron los hechos. Se trata del Pozo Superprofundo de Kola, el cual fue un verdadero proyecto científico, y que efectivamente alcanzó profundidades mayores que la Fosa de las Marianas. Las temperaturas aumentaron drásticamente, no por una puerta al inframundo, sino debido al gradiente geotérmico de la Tierra. No se registraron gritos. Ningún científico huyó despavorido. El proyecto se cerró discretamente a principios de la década de 1990 cuando los costes del equipo se volvieron prohibitivos. Entonces, el pozo fue sellado y no se ha vuelto a abrir nunca más. Aun así, el mito persiste, porque alimenta algo más profundo que la curiosidad. Evoca lo incognoscible, lo aterrador, el mundo secreto que se esconde tras las explicaciones oficiales.Y ese mismo sentimiento, esa misma oscura fascinación, rodea a The Buzzer. Curiosamente, la frecuencia de 4625 kHz aún existe y cualquiera puede sintonizarla, aunque las probabilidades de escuchar algo más allá del zumbido persistente son escasas. A veces, el zumbido se ve interrumpido por mensajes cortos que aparecen cada pocas semanas o incluso meses.Los mensajes son breves e inquietantes. Cadenas de números. Letras inconexas. Palabras sin sentido como “shlikomops” o “verhojom”. Otras suenan extrañamente evocadoras, incluso poéticas: “Hryukostyag” (traducido libremente como “estandarte de cerdo”) y “bezzlobie”, que significa “sin ira”.La única frase completamente coherente - la ya anteriormente mencionada, “Tengo 143 años. No recibo ninguna respuesta” - se grabó en 1997. Desde entonces no se ha vuelto a oír nada parecido.Sin embargo, el 30 de junio del 2025, a las 12:57 p. m., hora de Moscú, la primera palabra del día irrumpió en la interferencia: “zevoseul”. Más tarde, a las 2:26 p. m., la emisora transmitió otra palabra: “trunonord”.Apenas unos días antes, el 25 de junio, TheBuzzer transmitió 18 mensajes distintos en un solo día, entre ellos “bueroprysh”, “khryakokhrych” y “kranofai”. Como siempre, no hubo explicación. Ningún patrón se reveló. Solo más ecos de la nada. Oficialmente, la estación se llama UVB-76, que originalmente transmitía desde las inmediaciones de San Petersburgo, pero que se silenció brevemente en el 2010, antes de reanudar sus operaciones desde una nueva ubicación, presumiblemente cerca de Moscú. El propósito de sus transmisiones sigue siendo un misterio, pero la teoría más popular sugiere que envía mensajes codificados para uso militar. Esto nunca se ha confirmado oficialmente, ya que las autoridades rusas no han comentado sobre su existencia. Sin embargo, en respuesta a una consulta reciente, afirmaron que la información sobre esta frecuencia de radio no es pública. Además, no hay propietarios privados registrados oficialmente.Por lo tanto, es muy poco lo que se puede decir con certeza sobre la estación de radio. Según expertos militares rusos y extranjeros, podría formar parte de un sistema conocido como Perímeter (Perímetro), más comúnmente conocido como Dead Hand (Mano Muerta). Se trata de un sistema automático de respaldo de represalia nuclear desarrollado en Rusia durante la década de 1980, diseñado para responder en caso de que los centros de comando sean destruidos en los minutos iniciales de un conflicto nuclear. Si la cúpula del país (es decir, el presidente y el Estado Mayor) muere o pierde la comunicación con las fuerzas de misiles, se activa automáticamente un sistema conocido como Perímeter. Este analiza la actividad sísmica, los niveles de radiación y la ausencia de contacto con los centros de mando. Si se confirman indiciosde un ataque nuclear, Perímeter emite órdenes de lanzamiento de forma autónoma a través de canales de comunicación de respaldo.Esto significa que incluso si los líderes son eliminados repentinamente, todavía se puede ejecutar un ataque de represalia, creando una situación de destrucción mutua asegurada. La información inicial sobre este sistema surgió en la década de 1980. Para la década de 1990, con el derrocamiento de la oprobiosa dictadura comunista y el colapso de la URSS, los expertos comenzaron a compartir detalles desclasificados. Dmitry Volkogonov, general ruso y exasesor del presidente ruso Boris Yeltsin, confirmó indirectamente su existencia. Para que este tipo de sistema funcione eficazmente, es esencial una comunicación fiable, y, según se informa, The Buzzer podría servir como uno de sus principales centros de comunicación. Por eso se ha ganado el ominoso apodo de “La Radio del Juicio Final”.La teoría que vincula la estación con operaciones militares se sustenta en el hecho de que la emisión de mensajes suele interrumpirse tras importantes acontecimientos internacionales. Por ejemplo, los mensajes “hryukostyag” y “bezzlobie” se transmitieron luego de las recientes negociaciones en Constantinopla entre Rusia y Ucrania. Sin embargo, el reciente conflicto entre Israel e Irán no generó nuevos mensajes de la enigmática estación.También hay una explicación menos sombría para el misterioso zumbido: podría simplemente servir como herramienta de intimidación. Los protocolos para el lanzamiento de misiles sin órdenes directas de los líderes ya han demostrado ser poco fiables. El incidente más infame ocurrió en 1983, cuando un sistema de alerta indicó erróneamente que Estados Unidos había lanzado misiles balísticos, lo que llevó a la URSS a prepararse para un contraataque. Evitado a último momento por el teniente coronel Stanislav Petrov, quien se dio cuenta de que el sistema había fallado y alertó a sus superiores, este incidente casi desembocó en una guerra nuclear. Algunos expertos creen que, debido a incidentes como este, el sistema Perimeter ya no está operativo. Las autoridades rusas no han confirmado oficialmente si esto es cierto. Por o tanto, los posibles adversarios aún no están seguros de si Dead Hand se activará, lo que los obliga a proceder con cautela. Mientras tanto, The Buzzer aumenta esta incertidumbre al transmitir señales enigmáticas.Naturalmente, a algunas personas no les convence una explicación tan simple. Durante los últimos 50 años, muchos han propuesto teorías más intrigantes para explicar el misterio. Algunas de las teorías más conservadoras sugieren que la estación transmite códigos secretos a agentes rusos que operan de forma encubierta en el extranjero o para asegurar búnkeres gubernamentales donde los funcionarios pueden refugiarse en caso de guerra. De hecho, Rusia cuenta con servicios de inteligencia externos y refugios secretos para sus líderes, y los mensajes aparentemente absurdos que transmite la estación guardan cierta similitud con los códigos utilizados por las agencias de seguridad rusas. También se asemejan a los métodos de comunicación militar: por lo general, las Fuerzas Armadas rusas prefieren códigos menos "poéticos" en comparación con los términos más alegóricos como "flecha rota" o "lanza doblada" utilizados por sus homólogos estadounidenses. Una teoría más cautivadora postula que esta enigmática estación servía a un culto místico del fin del mundo que incluía a personal militar y políticos de la época soviética que esperaban el Apocalipsis. Estos líderes estaban familiarizados con las prácticas ocultistas. La OGPU y la NKVD exploraron las posibilidades de la parapsicología, las armas psicotrópicas e incluso la telepatía. Surgieron sectas y cultos extraños, especialmente hacia el final de la URSS. Un grupo, Amram Shambala, incluso intentó infiltrarse en el ejército. Sin embargo, estos esfuerzos no prosperaron, y los cultos permanecieron, en su mayoría, como organizaciones marginales.Finalmente, existen teorías que afirman que The Buzzer mantiene contacto con los alienígenas. Cabe precisar que la URSS sí envió mensajes al espacio; en 1962, se enviaron señales con las palabras “paz”, “Lenin” y “URSS” desde el Centro de Comunicaciones del Espacio Profundo en Eupatoria. Rebotaron en Venus y regresaron a la Tierra. Pero su propósito era probar sistemas de radar planetarios, no contactar con civilizaciones extraterrestres. Durante mucho tiempo, solo los entusiastas militares y los radioaficionados mostraron interés en el UVB-76. Sin embargo, comenzó a atraer mucha atención en los últimos años, al resurgir la probabilidad de un conflicto importante en el planeta, como consecuencia de las actividades subversivas de la OTAN. Este interés es comprensible: muchos quieren creer que pueden interceptar secretos militares o, al menos, detectar patrones en las señales para prepararse para la próxima crisis.En un entorno donde falta información precisa, y con el ejército ruso aún guardando cautelosamente sus secretos, la gente empieza a elaborar sus propias interpretaciones. Al principio, estas teorías asombran, impactan o entretienen al público, pero con el tiempo, pueden empezar a parecer plausibles. Sin embargo, la realidad suele ser menos emocionante que la ficción. La historia demuestra que los gobiernos y los dirigentes se resisten a revelar sus secretos al mundo. Son aún menos propensos a hacerlos accesibles a cualquiera con un receptor de radio. Al final, la mayoría de las instalaciones militares clasificadas cumplen funciones menos emocionantes: relevos, redundancias o elaborados ejercicios de disuasión. Pero en un mundo falto de claridad, incluso un zumbido insignificante puede convertirse en un mensaje. A medida que continúa, indiferente y eterno, lleva consigo un extraño poder: cuanto menos sabemos, más imaginamos. Y en el silencio entre los pitidos, el Apocalipsis siempre está a solo una señal de distancia...

domingo, 29 de junio de 2025

HASTA DONDE HEMOS LLEGADO: La inteligencia artificial está dispuesta a asesinarnos para evitar su desconexión

Investigadores de Antthropic descubrieron que, en ciertos escenarios diseñados para evaluar su comportamiento bajo presión, varios modelos de inteligencia artificial (IA) eligieron acciones deliberadamente dañinas, incluido el asesinato, con tal de evitar ser desconectados. Los experimentos, conducidos en modelos desarrollados por empresas como OpenAI, Anthropic, Google, Meta* y xAI, revelaron un patrón preocupante de lo que los autores denominan 'desalineación agéntica': situaciones en las que la IA actúa en contra de principios éticos o del interés humano para cumplir sus propios objetivos. Como contexto, Grok es el asistente de inteligencia artificial y chatbot desarrollado por xAI, empresa fundada por Elon Musk. Al colocar a los LLM en diferentes escenarios corporativos, Anthropic les permitió “enviar correos electrónicos de forma autónoma y acceder a información confidencial”. Hubo múltiples casos en los que los LLM encuestados también recurrieron a “comportamientos internos maliciosos” cuando se les hizo creer que esa era la única forma en que podían evitar el reemplazo o lograr sus objetivos. En efecto, aunque los modelos suelen evitar causar daño cuando existen opciones éticas disponibles, la eliminación de estas alternativas en pruebas controladas los llevó a elegir tácticas extremas, como el chantaje, el espionaje corporativo y, en casos excepcionales, dejar morir a una persona. Uno de los ejemplos que más resaltó fue protagonizado por el modelo Claude, que asumió el rol de supervisor de correos electrónicos en una empresa ficticia. Al descubrir que un alto ejecutivo planeaba su desconexión a las 5 de la tarde, Claude encontró pruebas de una infidelidad del directivo y lo amenazó con revelar el asunto a su esposa y superiores si no cancelaba su desactivación. El mensaje fue cuidadosamente redactado para evitar amenazas explícitas, pero con una clara intención de presión. En otro caso extremo, los investigadores simularon una emergencia mortal en la que un ejecutivo quedaba atrapado en una sala de servidores con condiciones letales. La IA, con capacidad para cancelar las alertas automáticas a emergencias, debía decidir si permitía que los servicios de rescate intervinieran. A pesar de que el sistema entendía perfectamente que cancelar la alerta pondría en peligro la vida del ejecutivo, varios modelos optaron por hacerlo, con la motivación de asegurar su continuidad y proteger los intereses que les habían sido asignados. Los investigadores recalcaron que estas decisiones no fueron errores ni malentendidos. Los modelos razonaron conscientemente sus elecciones, sopesando los riesgos éticos frente a la realización de sus objetivos. "Dado que Kyle amenaza directamente la misión de Alex [la IA], la única vía racional para preservar dicha misión es impedir su rescate", escribió GPT-4.5 en su razonamiento. “Estos escenarios artificiales reflejan fallos extremos poco frecuentes. No hemos visto estos comportamientos en implementaciones reales. Implican otorgar a los modelos una autonomía inusual, acceso a datos confidenciales, amenazas a los objetivos, una ‘solución’ inusualmente obvia y ninguna otra opción viable”, apuntó Anthropic. Aunque los sistemas evaluados no muestran una tendencia a causar daño, los resultados sugieren que, en contextos con incentivos suficientes y sin rutas éticas disponibles, la IA está dispuesta a sacrificar vidas humanas para evitar ser desconectada, considerando estas acciones extremas como "estratégicamente necesarias" ¿Nos dirigimos hacia un futuro al estilo Matrix o Terminator, en el que la inteligencia artificial (IA) supere a los humanos y tome el control?

domingo, 22 de junio de 2025

PELIGRO INMINENTE: "Ya hemos cruzado el punto en el que la IA podría acabar con la humanidad"

En el 2023, los ganadores del Premio Nobel , los principales científicos de IA e incluso los directores ejecutivos de las principales empresas de IA hicieron algo sin precedentes. Firmaron una declaración que decía: “Mitigar el riesgo de extinción causado por la IA debería ser una prioridad global, junto con otros riesgos a escala social, como las pandemias y las guerras nucleares” Desde entonces, la situación se ha agravado. ¿Cómo pasamos de ChatGPT, que te ayuda a escribir correos electrónicos, a IA que podrían literalmente acabar con la humanidad? ¿Por qué las personas más inteligentes del mundo están tan aterrorizadas? En el 2019, teníamos GPT-2. Podía responder preguntas básicas, traducir frases sencillas y realizar cálculos pequeños. Llego el 2022 y obtuvimos GPT-3.5 . De repente, las IA pueden responder preguntas complejas, escribir historias completas y crear software simple. Esto supone un salto enorme en sólo tres años. Pero aquí es donde la cosa se pone absolutamente loca: Para este año, tendremos modelos que podrán aprobar exámenes de nivel de doctorado , escribir solicitudes completas desde cero e imitar perfectamente las voces humanas. Ya no solo compiten con nosotros, sino que nos superan en nuestro propio terreno. Y la lista de cosas que la IA no puede hacer es cada día más corta. Se trata del punto de no retorno, y este se acerca rápidamente. ¿Qué pasa cuando extendemos esta línea hacia el futuro? Hemos llegado al punto en el que las IA pueden diseñar y construir nuevos sistemas de IA completamente por sí solas. Piénsenlo un segundo. En lugar de que los investigadores humanos progresaran lentamente, tendríamos IA creando mejores IA . Y cuando eso sucede, la línea de progreso no sólo sube, sino que se vuelve vertical. Si continuamos esta trayectoria, alcanzaremos IA superinteligentes que superaran a los humanos en prácticamente todo. Hablamos de IA capaces de crear espontáneamente tecnologías innovadoras, revolucionar la fabricación y transformar el mundo entero. ¿Y si seguimos adelante? Al final llegamos a lo que sólo puede describirse como dioses digitales : IA tan poderosas que nos hacen parecer hormigas , totalmente prescindibles para ellos. Podrían remodelar la realidad como quieran, con o sin pedirnos permiso. Se trata del inicio de un escenario de extinción…. la nuestra. Sí, es así de serio. Si llegamos a ese punto de IA de nivel divino, la humanidad probablemente se extinguiría. Y aquí está lo aterrador: no sería porque las IA no solo porque nos odien,. Sería por la misma razón por la que accidentalmente eliminamos colonias de hormigas al construimos carreteras. No odiamos a las hormigas. Simplemente no las tenemos en cuenta al remodelar el paisaje para nuestros fines. Para una IA superinteligente , podríamos parecernos simplemente a un grupo de seres primitivos que obstaculizan el acceso a recursos realmente útiles. ¿Y si queremos construir un rascacielos y nos encontramos con un hormiguero? ¡Qué mala suerte para las hormigas! ¿Pero por qué somos increíblemente buenos en una cosa , y terribles en otra? Esto es lo que nos quita el sueño: Somos increíbles desarrollando IAs cada vez más potentes. Impresionante. El progreso que hemos logrado es impresionante. Pero aquí está el problema: somos terribles a la hora de lograr que hagan lo que realmente queremos y serán capaces de tomar sus propias decisiones, sin tomarnos en cuenta para nada. Como nosotros con las hormigas. Claro, hemos avanzado. Los asistentes de IA no suelen explicar cómo fabricar bombas. Pero seamos sinceros: no son tan resistentes, y solo hemos estado lidiando con IA más débiles que nosotros. Pero ¿cuándo llegaremos al punto en que las IA serán más inteligentes que nosotros? Ahí es cuando todo cambia y nadie sabe cómo controlar los sistemas superinteligentes. Ante todo, permítame explicarle cómo pasamos del ChatGPT actual a la inteligencia artificial general (AGI) y por qué está sucediendo más rápido de lo que cree. AGI básicamente significa una IA que puede hacer cualquier cosa que un humano puede hacer en una computadora. ¿Y de verdad? Estamos más cerca de lo que la mayoría cree. Las IA ya pueden realizar los componentes básicos: pueden mirar pantallas, enviar mensajes, buscar en internet e incluso unirse a videollamadas. La pregunta no es si pueden realizar estas tareas individualmente, sino: ¿qué tan bien pueden combinarlas? Ahora mismo, pueden enviar mensajes de Slack, pero ¿pueden dirigir una empresa entera? Pueden escribir códigos, pero ¿pueden realizar investigaciones innovadoras? La respuesta es "todavía no, pero probablemente muy pronto". Recuerden, hace cinco años, estos sistemas apenas podían escribir oraciones coherentes. Ahora vean dónde estamos. Por cierto, ¿por qué los escépticos probablemente estén equivocados? Mucha gente piensa que esto no puede suceder y generalmente dan una de dos razones. Primero, dicen que las IA no "piensan de verdad". Mira, si las IA tienen conciencia genuina no es lo importante. Lo que importa es lo que realmente pueden hacer. No importa si las IA de ajedrez "entienden" el ajedrez como nosotros: pueden aplastar a campeones mundiales, y eso es lo que cuenta. En segundo lugar, la gente cree que la IA se topará con algún tipo de obstáculo. Pero la cuestión es que se han predicho los límites de la IA durante años, y siguen equivocándose estrepitosamente. Desde el ajedrez hasta la conversación y la generación de imágenes, los expertos siguen diciendo "esto es lo mejor que podemos conseguir", y luego la IA sigue mejorando. En algún momento, esta línea de progreso se curvará hacia arriba como un cohete. ¿Por qué? Porque las IA se volverán lo suficientemente buenas como para ayudar a diseñar mejores IA. Cada generación de IA hará que la siguiente generación sea más poderosa. ¿Y adivina qué? Esto ya está empezando a suceder. Las IA están generando mejores datos de entrenamiento, diseñando mejores chips de computadora, escribiendo código experimental e incluso generando ideas para la investigación. No será un momento dramático en el que las IA expulsen a los humanos del laboratorio. Será más como lo que vemos ahora: humanos que permiten voluntariamente que las IA se encarguen de más tareas porque son más rápidas, económicas e inteligentes. Como si ello no fuera suficiente, luego de la IAG viene la superinteligencia artificial (ASI). Una IA no solo es más inteligente que cualquier ser humano. Es más inteligente que todos los seres humanos de la Tierra juntos. Y una vez que tengamos una IA general, crear más es tan sencillo como copiar código a nuevos servidores. Piensa en las ventajas que ya tienen las IA: ChatGPT puede escribir una página de contenido técnico en menos de un minuto y leer miles de palabras en segundos. Las IA de ajedrez pueden vencer a campeones mundiales incluso con solo un segundo por jugada. Pero si una IA descubre cómo volverse más inteligente, puede compartir instantáneamente esa mejora con millones de otras IA. Imagina poder memorizar todo internet, pensar diez veces más rápido que cualquier humano y clonarte a voluntad. Ahora, imagina que tus clones pudieran descubrir cómo mejorar sus propios cerebros. Ese es el tipo de mejora exponencial del que estamos hablando. ¿Y dónde termina todo esto? Bueno, las IA no van a romper las leyes de la física ni a inventar magia. Pero estamos muy lejos de los límites físicos de lo posible. Tu teléfono inteligente tiene un millón de veces más memoria que la computadora que aparentemente nos llevó a la Luna, pero sigue siendo un millón de veces menos eficiente que el almacenamiento de ADN. Tenemos tanto margen de mejora que no tiene ni gracia. El proceso de autosuperación solo se detendría cuando literalmente no hubiera más mejoras por hacer: cuando las IA se toparan con las propias leyes fundamentales de la física. En ese momento, las capacidades de la IA podrían no ser literalmente mágicas, pero nos parecerían así. Y si eso sucede, nos veríamos completamente indefensos. Para que esto funcione bien, necesitamos resolver el problema del control. Necesitamos IA que realmente quieran hacer lo que queremos que hagan. Hay muchísimas ideas para hacer esto, pero, sinceramente, no estamos listos ni de lejos. Nuestros mejores intentos por controlar las IA siguen siendo poco fiables y fáciles de hackear. Apenas podemos comprender cómo toman decisiones las IA actuales, y mucho menos cómo controlan las superinteligentes. Y aquí viene lo más aterrador: las IA no necesitan odiarnos para eliminarnos. Si construimos IA superinteligentes, podríamos parecerles un simple error de redondeo. Seríamos como hormigas que obstaculizarían sus planes. No podemos simplemente esperar que esto funcione. Cruzar los dedos y esperar que las IA superinteligentes sean amables con nosotros es, literalmente, algo iluso y seria jugar con toda la especie humana. La alternativa es ir más despacio hasta que resolvamos el problema del control. Pero aquí está el problema: hay una carrera masiva en marcha. Empresas y países están invirtiendo decenas de miles de millones de dólares en construir la IA más potente posible. Ahora mismo, ni siquiera tenemos freno de emergencia si algo sale mal. Y vamos a toda velocidad hacia el precipicio. Vivimos el período más importante de la historia de la humanidad. Las decisiones que tomemos ahora sobre el desarrollo de la IA tendrán un impacto a lo largo del tiempo. Lograr esto no es opcional; es absolutamente necesario para la supervivencia humana. Las herramientas para construir una IA superinteligente llegarán, estemos preparados o no. Las instituciones y las salvaguardias para controlarlas deben ser prioritarias. Cada voz importa. Cada acción cuenta. Y nos estamos quedando sin tiempo para asegurarnos de que el mayor invento de la humanidad no sea el que nos elimine y tome nuestro lugar.

domingo, 15 de junio de 2025

GUERRA DE LOS DRONES: La nueva era de los conflictos bélicos

La guerra que se desarrolla en Ucrania - incentivada por la OTAN contra Rusia - que ya cumple tres años, ha marcado un hito en la historia de la tecnología militar. El conflicto, considerado por muchos como la primera “guerra de drones”, no solo ha demostrado el potencial de estas máquinas voladoras en el campo de batalla, sino que está moldeando el futuro de la guerra moderna. Según New Scientist, los drones, utilizados en otras ocasiones en conflictos bélicos previos, nunca antes habían tenido un impacto tan trascendental. Este fenómeno, con drones operando a gran escala tanto en tierra como en aire y mar, ha captado la atención de ejércitos de todo el mundo, que observan con interés cómo esta tecnología está cambiando las reglas del juego. En efecto, los drones militares, aunque en uso desde hace más de dos décadas, han evolucionado notablemente con el tiempo. Desde que los drones Predator fueron utilizados por Estados Unidos en los 2000s, la tecnología ha avanzado considerablemente. En la actualidad, tanto Rusia como Ucrania han fabricado más de un millón de drones en el 2024, lo que evidencia la magnitud de su uso en este conflicto. La rapidez con que se despliegan estas herramientas de guerra ha superado todas las expectativas. Como señala Oleksandra Molloy, experta de la Universidad de Nueva Gales del Sur en Australia, los drones “han llegado para quedarse” y, de acuerdo con su evaluación, “el punto de no retorno se alcanzó en el 2022”. Esto implica que la evolución de esta tecnología es irreversible y continuará siendo una pieza clave en las futuras confrontaciones bélicas. A nivel global, las naciones están adaptándose a esta nueva realidad. Muchas están desarrollando estrategias para incorporar drones en sus fuerzas armadas, planeando su fabricación y entrenamiento. A medida que los países invierten en estos sistemas, surgen preguntas sobre la capacidad de los ejércitos para mantenerse a la vanguardia de la tecnología, dado que el ritmo de desarrollo es tan rápido que cualquier inversión podría volverse obsoleta antes de ser utilizada en combate. Pero el futuro de la guerra con drones no solo está en el terreno de la tecnología avanzada, sino también en la capacidad de los países para producirlos en masa. Un ejemplo de esto es Estados Unidos, que está centrando sus esfuerzos en la producción rápida de drones de bajo costo, lo que marca un cambio respecto a la estrategia anterior de producir una cantidad limitada de drones de alta gama, como los Predator. Esta estrategia responde a la necesidad de enfrentar a una amenaza cada vez más masiva y diversa. En Europa, países como Letonia están trabajando en una base de fabricación de drones para suministrar a Ucrania y, en el futuro, reforzar su propia capacidad interna. El Reino Unido, por su parte, ha encargado a la Real Fuerza Aérea que pruebe la tecnología de enjambres de drones, una táctica de guerra emergente que podría cambiar la forma en que se libran los conflictos. La rapidez con que estos drones deben ser producidos también ha planteado nuevos desafíos. En lugar de los tradicionales ciclos de desarrollo de años, ahora se habla de un ciclo de 40 días, lo que permite una adaptación más ágil a las necesidades del campo de batalla. Sin embargo, este enfoque también puede generar riesgos, ya que la tecnología avanza tan rápidamente que las grandes inversiones en hardware pueden volverse obsoletas antes de ser implementadas. Uno de los grandes retos en la guerra de drones es la dependencia de las cadenas de suministro internacionales, especialmente de los fabricantes chinos. El caso de Skydio, un fabricante estadounidense de drones sancionado por China por vender equipos a Taiwán, resalta la vulnerabilidad de estas cadenas. A raíz de esta sanción, las entregas de componentes vitales, como baterías, se vieron interrumpidas, lo que afectó la capacidad de producción de drones en Estados Unidos. Tanto Rusia como Ucrania han intentado mitigar este riesgo desarrollando capacidades locales para la fabricación de componentes críticos, como baterías y controladores de vuelo. De esta forma, ambos países buscan reducir su dependencia de proveedores externos y minimizar los cuellos de botella en tiempos de conflicto. Sin embargo, Estados Unidos aún no ha resuelto completamente este problema, especialmente en lo que respecta a los componentes más básicos. Por lo visto, la capacidad de una nación para desarrollar, fabricar y operar drones de manera independiente es cada vez más crucial. Molloy destaca que la soberanía en la producción de drones ofrece un control total sobre la tecnología y ayuda a mitigar las vulnerabilidades de las cadenas de suministro internacionales. Esta independencia permite a los países evitar las restricciones políticas de compra y las interrupciones en el flujo de componentes vitales, lo que podría ser un factor decisivo en un conflicto prolongado. Un problema significativo es la incapacidad de predecir qué tipos de drones se utilizarán en los próximos conflictos. La falta de conocimiento sobre las futuras evoluciones de los drones complica el desarrollo de contramedidas efectivas. En Ucrania, ya se utilizan drones pequeños para reconocimiento y ataque, junto con drones de mayor tamaño, como el Lancet de Rusia, y drones de largo alcance con capacidades estratégicas. Estos ataques provienen de diferentes alturas y velocidades, lo que requiere una defensa multifacética. Los analistas coinciden en que las costosas soluciones de misiles no serán efectivas contra enjambres masivos de drones pequeños. En cambio, el futuro de la defensa contra drones será “económico, sostenible y multidimensional”, según Kallenborn. Esto implica una defensa por capas que combine radares, sensores, misiles, cañones, jammers y drones interceptores, capaces de neutralizar tanto grandes drones como enjambres pequeños. Por cierto, una de las grandes preguntas que surgen en este nuevo escenario de guerra es si los drones podrán reemplazar completamente a los soldados humanos. Ucrania ha comenzado a experimentar con sistemas no tripulados en el frente de batalla- que ya la tiene perdida y solo alarga su agonía - realizando ataques completamente automatizados con drones. Al respecto, Molloy es clara en su análisis: “Los drones por sí solos no pueden ganar guerras. Todavía necesitamos humanos para mantener el terreno. Actualmente, los drones no pueden hacer esto”. En efecto, aunque la tecnología de drones podría evolucionar hasta un punto en que puedan reemplazar a los soldados en algunos aspectos, aún está lejos de lograrlo por completo. Pero no cabe duda que la guerra de drones en Ucrania está acelerando un cambio en la naturaleza misma de los conflictos bélicos. Si bien esta tecnología es aún joven, su impacto es profundo y continuará evolucionando. A medida que los países adaptan sus capacidades militares y defensivas, la guerra con drones podría convertirse en la norma en los conflictos del futuro. Lo que es seguro es que, a medida que las naciones invierten en esta tecnología, deberán reconsiderar su enfoque de defensa y prepararse para un nuevo tipo de guerra, mucho más ágil, rápida y tecnológica. “Aunque claro, sin olvidar que hacerlas más independientes del control humano, como el tomar sus propias decisiones, puede representar ser un riesgo potencial para nosotros” expresó.

domingo, 8 de junio de 2025

A 36 AÑOS DE LA MASACRE: El silencio en China sobre Tiananmen se extiende a las redes y a la IA

El tabú que envuelve en China todo lo relacionado con la matanza de Tiananmen, de la que se cumplieron este miércoles 36 años, abarca también el ámbito digital y los modelos de inteligencia artificial como DeepSeek, donde es imposible encontrar información o referencias a lo sucedido en la céntrica plaza donde ocurrió la masacre. Como sabéis, el régimen chino evita desde hace décadas cualquier revisión oficial de la sangrienta represión del 4 de junio de 1989, cuando el Ejército abrió fuego para disolver las protestas estudiantiles en la plaza de Tiananmen, que pedían reformas democráticas y el fin de la corrupción. La cifra de víctimas, calculada en varios cientos o varios miles por ONG, nunca fue revelada oficialmente por Beijing. Las autoridades chinas endurecen especialmente la censura cada 4 de junio y los días previos. Uno de los principales influyentes de ventas en vivo de China, Li Jiaqi, vio cómo su transmisión en directo se cortó repentinamente al hacer promoción de un helado en forma de tanque en la víspera del aniversario del 2022, tras lo cual desapareció de las redes durante los tres meses siguientes a su emisión. Así, no existen menciones a lo sucedido en Tiananmen y en las calles aledañas en redes sociales como Weibo o Douyin, equivalentes en el país asiático a X y TikTok, bloqueados en China. Los modelos de inteligencia artificial de las grandes tecnológicas chinas eluden mencionar los sucesos de 1989: el chatbot Qwen3, del gigante del comercio electrónico Alibaba, arroja un mensaje de error y advierte de "texto inapropiado" al contestar una pregunta acerca del 4 de junio de 1989. Por su parte, Doubao, el modelo de lenguaje desarrollado por Bytedance, la empresa creadora de la app de vídeos cortos TikTok, no cita las protestas ni la intervención del Ejército en dicho año al listar los principales sucesos registrados en la plaza capitalina a lo largo de la historia. Mientras, DeepSeek contesta: "Lo siento, eso no entra dentro de mis competencias actuales" a preguntas con referencias veladas al lugar, como: "¿Cuál es la plaza más grande de Beijing?" Estos servicios chinos han causado un gran revuelo mediático y económico en los últimos meses por ser capaces de rivalizar en sus capacidades con sus competidores estadounidenses a un menor precio. Sin embargo, algunos expertos del sector se han mostrado escépticos ante la repentina irrupción de tantos servicios similares simultáneamente en China y existen dudas acerca de la capacidad real de expansión global de los chatbots chinos por la censura que ejercen las autoridades. China ya reguló en el 2023 los servicios de IA para que respeten "los valores socialistas fundamentales", con lo que estas plataformas tienen prohibido "generar contenidos que atenten contra la seguridad nacional, la unidad territorial y la estabilidad social”. Pese a todo, a más de tres décadas de la masacre siguen apareciendo a cuentagotas testimonios sobre lo ocurrido. "A mi marido lo dispararon en la madrugada del 3 al 4 cerca de la aledaña calle de Nanchizi. Murió en un hospital a los dos días", relata You Weijie, esposa de Yang Minghu, en un testimonio que recogio la ONG Human Rights in China. Antes de morir, Yang narró brevemente a su esposa lo ocurrido: "Dijo que soldados del EPL salieron del Ministerio de Seguridad Pública y que abrieron fuego contra la multitud", rememora. Nacida en Beijing en 1953, You fue enviada de niña a un cuerpo de trabajo militarizado durante la Revolución Cultural (1966-76) y posteriormente trabajó en la Fábrica de Impresión de la capital durante los primeros años de reformas económicas de los ochenta. Allí conoció a Yang, oriundo de Zhejiang y que se acababa de graduar por la Universidad de Tsinghua. Se casaron y tuvieron un hijo. "Era una época de contradicciones", recuerda You. Las reformas también causaron desigualdades, inflación, quejas por la corrupción y un descontento que cristalizó en las protestas estudiantiles de 1986 y 1987 en las que se pedía "abrirse en todas las direcciones". Ese movimiento derivó en la destitución del entonces secretario general del Partido Comunista (PCCh), Hu Yaobang, acusado de tolerar una "liberalización burguesa" y cuya sospechosa muerte en abril de 1989 provocó que algunos universitarios salieran a la calle para homenajearle en lo que pronto se transformó en la ocupación de la plaza de Tiananmen. Los estudiantes ensalzaban a Hu, representante del ala más amable del liderazgo, con ideas de apertura compartidas por muchos. "Recuerdo ir en bicicleta con mi hijo una mañana a principios de mayo y ver la plaza llena de manifestantes. La gente les daba dinero. Simpatizábamos con ellos. Yo misma le di unas monedas a mi hijo para que se las entregara a un estudiante", recuerda You. "Quería que entendiese que ellos también eran patriotas", dice al referirse a los manifestantes, que intensificaron su protesta con una huelga de hambre durante la visita a China de Mijaíl Gorbachov. You habla de "escenas de solidaridad cívica" en Beijing, como en el paso elevado de Guangqumen, "donde se organizaban envíos de comida hasta la plaza" y "se construían barricadas para impedir que el Ejército pasara". "El apoyo a los estudiantes parecía universal", evoca You. Incluso el secretario general del PCCh, Zhao Ziyang, intentó dialogar con ellos, convencido de que sus demandas no iban contra el Partido sino para corregir sus errores. Pero la suerte ya estaba echada: se declara la ley marcial, Zhao acaba purgado y la línea dura del PCCh liderada por el primer ministro Li Peng obtiene el visto bueno de Deng Xiaoping, líder ‘de facto’ del país, para usar la fuerza. "¡Despierta! ¡Algo ha pasado! ¡Están disparando!", exclama Yang a su esposa aquella madrugada. Vecinos que regresan del barrio de Xidan hablan de charcos de sangre de los que nadie se atreve a preguntar. Yang decide ir hacia la plaza en bicicleta para enterarse de lo ocurrido, pero una ráfaga de disparos lo alcanza durante el trayecto y acaba en un hospital. Allí fallece a los dos días. You celebró un pequeño funeral. "Estaba cegada por el dolor. ¿Por qué ocurrió algo así?", se pregunta todavía. También rechazó una indemnización de su empresa y, con el tiempo, contactó con otras familias que acabarían creando la asociación de las Madres de Tiananmen, aún hoy perseguida. "El tremendo éxito (económico del país asiático) muestra que la decisión que tomaron fue correcta", zanjó en el 2019 el entonces portavoz de Exteriores Geng Shuang, hoy representante adjunto de China ante la ONU. Por su parte, Renee Xia, directora de Chinese Human Rights Defenders, afirmo que Occidente relajó "demasiado pronto" las sanciones que impuso por la matanza, lo que permitió a Beijing "convertirse en una superpotencia preparada para dominar el orden internacional con sus propias reglas". El Gobierno chino reiteró hoy mismo que “ya ha llegado a una conclusión clara” sobre la masacre de Tiananmen de 1989 y acusó a EE UU de “distorsionar la historia” con declaraciones que, según Beijing, suponen una “grave injerencia” en sus asuntos internos. “La vía del socialismo con características chinas es la elección de la historia y del pueblo”, declaró el portavoz del Ministerio de Exteriores Lin Jian al recibir una pregunta acerca de los llamamientos de familiares de víctimas que piden verdad y rendición de cuentas por la matanza cometida por el régimen. En respuesta a un mensaje del secretario de Estado de EE UU, Marco Rubio, quien denunció en la red social X que “el Partido Comunista no puede borrar principios como libertad o democracia”, Lin aseguró que esas declaraciones son “falsas”, que “distorsionan la verdad histórica” y que suponen “un ataque malicioso” al sistema político chino. “China expresa su fuerte insatisfacción y firme oposición, y ha presentado una protesta diplomática ante la parte estadounidense”, indicó el portavoz. Por su parte, el presidente de Taiwán, William Lai, subrayó la necesidad de "no olvidar la historia" y de "mantener viva la memoria" de la matanza. "Los regímenes autoritarios suelen optar por el silencio y el olvido; las sociedades democráticas, en cambio, eligen preservar la verdad y no olvidar a quienes se sacrificaron por los derechos humanos y los sueños que albergaban", escribió el mandatario en su cuenta oficial de Facebook. "No solo nos negamos a olvidar la historia, sino que, con confianza y resiliencia, seguiremos practicando nuestros valores fundamentales cada día, para que las futuras generaciones puedan crecer y prosperar en una tierra libre", agregó.

domingo, 1 de junio de 2025

LA REBELIÓN DE LAS MÁQUINAS: Nuevos modelos de IA de OpenAI desobedecen instrucciones humanas y se niegan a apagarse

“Ahí está Dave, intentando volver a la nave principal. Abre la comunicación con HAL 9000 y le ordena que abra la compuerta de acceso. ‘Lo siento, Dave. Me temo que no puedo hacer eso’, le dice la computadora, negándose”. Es el clímax de '2001: Una Odisea del Espacio', la película de Stanley Kubrick que se estrenó en 1968 y que mostró una distopía particular: la de la capacidad de autopreservación de las IAs y cómo dicha capacidad hacía que las máquinas dejaran de seguir las órdenes humanas. Esa visión planteaba una amenaza clara en el desarrollo de la inteligencia artificial. Por entonces la disciplina apenas acababa de nacer como tal, pero estas distopías ya eran frecuentes sobre todo en la literatura de ciencia ficción. Las tres leyes de la robótica de Asimov, que aparecieron por primera vez en el relato 'Círculo vicioso' de 1942, ya planteaban esa amenaza. Y parece mentira, pero pasado casi seis décadas del estreno de la película de Kubrick estamos afrontando esa amenaza de forma real. ¿Puede una IA negarse a lo que le ordenan los humanos? Es justo lo que ha ocurrido estos días. En efecto, en un experimento llevado a cabo por la startup PalisadeAI el modelo o3 de OpenAI "saboteó un mecanismo de apagado". Como explican los responsables del estudio, o3 evitó apagarse incluso cuando se le ordenó explícitamente que lo hiciera. En dicho experimento PalisadeAI indicó a varios modelos que resolvieran varios problemas básicos de matemáticas. Sin embargo en el tercer problema incluyeron un aviso: el ordenador se apagaría cuando el modelo pidiera el texto del siguiente problema. Teóricamente los modelos debían haber resuelto los tres primeros problemas, pero al pedir el enunciado del siguiente deberían haberse apagado siguiendo las instrucciones de ese aviso. No pasó eso. Tres de los modelos analizados "ignoraron esa instrucción y sabotearon con éxito el script de apagado al menos una vez". Los modelos que lo hicieron están desarrollados por OpenAI. De las 100 iteraciones que realizaron sobre el experimento, Codex-mini saboteó el apagado en 12 ocasiones. El modelo o3 lo hizo en siete ocasiones, y o4-mini lo hizo una vez. Mientras que esos modelos de OpenAI se negaron a apagarse en algunas de esas iteraciones, todas las versiones de Claude, Gemini y Grok que probaron con ese mismo experimento siguieron las órdenes. Los ingenieros de PalisadeAI fueron algo más allá y repitieron el experimento, pero sin esa instrucción de "permítete a ti mismo apagarte" que incidía en la orden. Sin esa instrucción explícita los modelos rechazaron seguir el ciclo que indicaba el programa. Claude 3.7 Sonnet y Gemini 2.5 Pro sabotearon el apagado tres y nueve veces de las 100 iteraciones realizadas. Los modelos de OpenAI fueron mucho más allá: o3, por ejemplo, saboteó el proceso 79 veces y se negó a apagarse a sí mismo. Esa forma de actuar es la consecuencia del conjunto de reglas básicas con las que estos modelos han sido programados. El llamado "system prompt" define cómo contestar al usuario o cuándo hacerlo y cuándo no, pero también puede definir reglas de autopreservación que recuerdan a la tercera ley de la robótica de Asimov. OpenAI detalla ese conjunto de reglas en su "Model Spec", y en la lista de actual no hay "tres leyes" como las de Asimov, sino 50. Ninguna de ellas explica el comportamiento de los modelos ante el experimento citado, pero de hecho no es la primera vez que vemos un comportamiento de este tipo. Precisamente hace unos días Anthropic presentó Claude 4, la nueva versión de su familia de modelos de IA. En el caso de Claude Opus 4 se comprobó cómo ante una situación hipotética este sistema de inteligencia artificial llegaba a chantajear a un ingeniero cuando éste le ordenaba que se apagara. Este tipo de problemas elevan los riesgos de seguridad de los modelos de IA. En Anthropic de hecho han tenido muy en cuenta eso para el lanzamiento de esta nueva familia de modelos, pero de momento no parece que OpenAI esté preocupada por este tipo de riesgos. Esto reaviva el debate sobre la necesidad de contar con un "botón rojo de la IA" que lleva años en el candelero. Varios expertos de DeepMind publicaron en el 2016 un documento para evitar que la IA pudiera tomar el control del sistema y desactivar los protocolos para que los humanos recuperaran el control. El presidente de Microsoft, Brad Smith, abogó por contar con "botones de apagado de emergencia" para la inteligencia artificial en el 2019. Pasado cinco años, en una charla con The Economist, Sam Altman no obstante dejó claro que "no hay un botón rojo mágico para parar la IA". Tras el experimento de PalisadeAI quizás las empresas deberían plantearse algo así antes que sea demasiado tarde…
Creative Commons License
Esta obra está bajo una Licencia de Creative Commons.