Elon Musk ha anunciado planes para crear una nueva enciclopedia en línea que rivalice con Wikipedia, la cual él y muchos críticos describen como políticamente sesgada. Afirmó que su versión representará una "gran mejora" respecto al sitio web existente. El servicio planificado, llamado Grokipedia, será impulsado por la compañía xAI de Musk y su modelo de inteligencia artificial generativa Grok, que ya está integrado en su plataforma social X. Musk también compartió las reacciones de los usuarios a su anuncio. Estos incluyeron un logotipo simulado que fusionaba Grok y Wikipedia, un meme que representaba a Musk como la parca preparándose para derribar la plataforma y sugerencias del cofundador de Wikipedia convertido en crítico, Larry Sanger, sobre cómo garantizar la neutralidad en una base de conocimiento editada por los usuarios. Musk reveló la iniciativa en respuesta a una publicación de David Sacks, asesor de criptografía y ciberseguridad de la Casa Blanca, en la que criticaba a Wikipedia. Sacks calificó el sitio como obra de "un ejército de activistas de izquierda", en lugar de la fuente de conocimiento neutral y consensuada que afirma ser. Advirtió que la prominencia de Wikipedia en los resultados de búsqueda de Google y su papel en el entrenamiento de modelos de IA hacen que su sesgo percibido sea "un grave problema". La crítica de Sacks siguió a una entrevista reciente en la que Sanger le dijo al periodista Tucker Carlson que las reglas de Wikipedia (como excluir a los medios conservadores de su lista de "fuentes confiables" ) resultan en un sesgo sistémico. Los comentaristas llevan mucho tiempo acusando a Wikipedia, que depende de donaciones, de traicionar su promesa de neutralidad en temas polémicos. Musk se burló de la plataforma anteriormente, llamándola "Wokipedia", y en una ocasión ofreció mil millones de dólares si aceptaba cambiar su nombre a "Dickipedia" durante un año. Musk reconoció que Grok usó datos de Wikipedia en su entrenamiento, pero dijo que los desarrolladores "deberían tener esto solucionado para fin de año" apunto. “Dejen de donar a Wokepedia hasta que restablezcan el equilibrio en su autoridad de edición” aseveró. Asimismo, sugirió que Wikipedia “apesta” por gastar 50 millones de dólares en DEI. La DEI, un conjunto de prácticas empresariales diseñadas para promover “la diversidad laboral”, ha sido criticada con justa razón por los conservadores, quienes argumentan que impone una discriminación inversa contra las personas blancas y socava los sistemas basados en el mérito. En los últimos meses, varias grandes corporaciones, como Boeing, Ford Motor Company, Nissan y Walmart, han reducido sus iniciativas de DEI. Musk tiene un conflicto de larga data con la enciclopedia, y no es de ahora. El año pasado, Sanger afirmó que la plataforma está siendo utilizada por la comunidad de inteligencia estadounidense como un instrumento de “control” y para promover la agenda del establishment liberal de izquierda ¿Podrá tener éxito Grokipedia? Pronto lo sabremos.
Desde hace años guardamos nuestras fotos, documentos, vídeos y proyectos de la escuela o el trabajo en memorias USB, discos duros externos o tarjetas de memoria. Son las herramientas que han acompañado a millones de personas a lo largo del tiempo. Se convirtieron en el estándar para transportar información de un lado a otro, así como tener a mano copias de seguridad. Sin embargo, comparten un problema que nunca se ha resuelto del todo, y es que se estropean, se llenan demasiado rápido y tarde o temprano dejan de funcionar. Para solucionarlo, se ha presentado una alternativa que cambiará las reglas del juego, y es que Microsoft trabaja en una tecnología experimental conocida como Project Silica, que promete sustituir los dispositivos de almacenamiento que conocemos con un material tan resistente como el vidrio de cuarzo y capaz de conservar datos durante siglos. La propuesta busca dar respuesta a una necesidad que no deja de crecer en todo el mundo, que es la de almacenar cada vez más datos sin miedo a perderlos o que se estropeen y sin la preocupación de quedarse sin espacio para guardar más archivos. Como sabéis, los USB y discos duros se han consolidado como las opciones más prácticas debido a que permiten mover información de un dispositivo a otro, ofrecen gran capacidad por muy poco dinero y caben en cualquier bolsillo. Gracias a ellas, durante años no hemos tenido que preocuparnos demasiado por el espacio. El problema llega con el paso del tiempo, porque los conectores se dañan, los chips se desgastan y los sistemas de lectura comienzan a fallar. Un archivo que guardaste hace cinco o diez años puede desaparecer sin aviso porque el dispositivo dejó de funcionar. La obsolescencia de los formatos también juega en contra, lo que hoy es un estándar puede quedar relegado en cuestión de una década. Mientras tanto, la cantidad de datos que generamos se multiplica. Las cámaras de los móviles graban vídeos en 4K, guardamos miles de fotos en alta resolución, trabajamos con proyectos pesados en la nube y hacemos copias de seguridad completas del ordenador. Esa avalancha de información se apoya todavía en soportes frágiles que no garantizan su conservación. Aquí es donde entra en juego Project Silica. Microsoft investiga cómo grabar datos en láminas de vidrio a base de sílice utilizando láseres de femtosegundos, una técnica que modifica de forma permanente la estructura del material. En lugar de depender de partes mecánicas, el archivo queda inscrito en un soporte estable e indestructible. Resistencia: El cristal no se deteriora con el tiempo ni sufre daños por condiciones externas habituales; Sostenibilidad: Se trata de un material abundante, no tóxico y fácil de producir; Capacidad: Una sola lámina puede almacenar varios terabytes de información; Durabilidad: La escritura es única y los datos se conservan intactos durante siglos. Para instituciones que necesitan preservar documentos históricos, para empresas que gestionan grandes volúmenes de información o incluso para usuarios que quieren garantizar que sus recuerdos no se pierdan, el cristal se perfila como un soporte definitivo. Si Project Silica se consolida, el concepto de copia de seguridad se transformará, porque ya no habría que hacer respaldos cada cierto tiempo ni comprar discos externos cada pocos años. Tampoco sufriríamos la angustia de conectar un USB y comprobar que el sistema no lo reconoce. Además, este modelo abarata costes a largo plazo, ya que, aunque la inversión inicial pueda ser mayor, el hecho de no tener que reemplazar dispositivos de forma periódica compensa con creces. Para las grandes tecnológicas o los centros de datos, se trata de un avance que reduce riesgos y también impacto ambiental. Eso sí, la transición no será inmediata, porque hoy seguimos necesitando memorias USB, discos duros y tarjetas para tareas cotidianas, desde pasar un documento hasta guardar fotos en un dispositivo físico. Project Silica todavía está en fase de investigación, pero el camino que abre es evidente. Cada año producimos más información de la que somos capaces de gestionar con seguridad. El reto ya no es solo almacenar, sino conservar de forma fiable. Un soporte eterno como el cristal puede convertirse en la única salida para garantizar que los datos sobrevivan al paso de las generaciones. Es indudable por ello que el salto hacia nuevas tecnologías de almacenamiento marcará un hito en la tecnología. Igual que en su momento dejamos atrás los disquetes o los CD, el futuro apunta a que también diremos adiós a los USB y discos duros tal y como los conocemos.
Un análisis de tendencias y recientes informes de ciberseguridad sugiere un futuro inminente donde el contenido generado por inteligencia artificial y bots superará con creces las interacciones humanas, transformando la web que conocemos. En efecto, a principios del 2024, las redes sociales se vieron inundadas por un fenómeno tan extraño como revelador: imágenes generadas por IA de crustáceos, principalmente camarones, con el rostro de Jesucristo. Este evento, conocido como Shrimp Jesus, aunque en apariencia inofensivo, fue para muchos expertos una señal de alerta sobre la consolidación de la «teoría de la Internet muerta». Jake Renzella y Vlada Rozova, escribiendo en The Conversation, analizaron el suceso: “Algunas de estas imágenes hiperrealistas han acumulado más de 20.000 ‘me gusta’ y comentarios. La teoría de la Internet muerta tiene una explicación: el contenido generado por IA y bots ha superado al contenido generado por humanos en la Internet”. Lo que antes era una idea marginal, hoy gana cada vez más terreno. Un informe de ese mismo año de la firma de ciberseguridad Imperva estimó que casi la mitad de todo el tráfico en la Internet ya es automatizada. Los bots representaron el 49.6 % del tráfico en el 2023, un aumento significativo desde el 42.3 % en el 2021. Si esta tendencia continúa, los bots constituirán una clara supermayoría en la red para finales de esta década. A esta preocupante estadística se suma la “putrefacción de enlaces”. Un informe del Pew Research Center estima que el 38 % de las páginas web (en su mayoría creadas por humanos) del 2013 ya no existen. Estos dos factores - el auge del contenido automatizado y la desaparición del contenido humano antiguo - llevan a la inevitable conclusión de que la Internet ya no es un espacio “para humanos, por humanos”. La ironía de la situación no ha pasado desapercibida para figuras clave como Sam Altman, CEO de OpenAI. Aunque en el pasado se mostró escéptico, recientemente ha expresado una creciente preocupación por la teoría de la Internet muerta. Su principal temor es un fenómeno que podría describirse como “autofagia digital”: que los futuros modelos de IA se entrenen principalmente con datos generados por otras IAs. Altman advierte que este ciclo de retroalimentación podría hacer que los modelos “se vuelvan locos”, contaminando el ecosistema digital con contenido cada vez más extraño y desconectado de la realidad humana. Al aprender de sí mismos en un bucle cerrado, la calidad y la coherencia de la información en línea podrían degradarse masivamente, validando las predicciones más pesimistas de esta teoría. Detrás del fenómeno Shrimp Jesus se esconde un modelo de negocio simple: el “cultivo de interacciones” (engagement-farming). En un sistema donde la atención se traduce en ingresos publicitarios, automatizar la creación de contenido viral es una forma fácil de generar dinero. Sin embargo, las implicaciones van más allá del contenido trivial. Estas mismas técnicas se utilizan con fines mucho más oscuros, como el apoyo a regímenes autoritarios. Una revisión del 2025 realizada por la empresa NewGuard encontró más de mil sitios de noticias gestionados casi en su totalidad por bots, incluyendo algunos dedicados a difundir propaganda y desinformación sobre conflictos globales. Esto no significa el fin del uso personal de la Internet. Los mensajes entre amigos, las publicaciones privadas y la correspondencia directa seguirán existiendo. Sin embargo, este creciente deterioro del espacio público digital exige que los usuarios sean más vigilantes que nunca para discernir qué es real y qué es artificial. Como concluyeron Renzella y Rozova: “La libertad de crear y compartir nuestros pensamientos en la Internet y en las redes sociales es lo que la hizo tan poderosa. Es en este sentido que la Internet que conocimos y amamos está muerta”
Sentada en la Casa Blanca, Melania Trump, la primera dama estadounidense, compartió sus reflexiones sobre la tecnología que ha revolucionado al mundo – qué duda cabe - en los últimos años: la Inteligencia Artificial. En efecto, la esposa del presidente Donald Trump, que tiene 55 años, hablo frente a una audiencia de profesionales del sector tecnológico. “Como líderes y padres, debemos gestionar el crecimiento de la inteligencia artificial de forma responsable”, dijo en su discurso. “Los robots ya están aquí. Nuestro futuro ya no es ciencia ficción”, pronunció. “Y esta nueva realidad hay que afrontarla con la misma responsabilidad que un padre o madre tendría con sus hijos”, aseguró. “Durante esta etapa primitiva, es nuestro deber tratar a la inteligencia artificial como trataríamos a nuestros propios hijos: dándoles poder, pero con una guía vigilante”. Estaba sentada a la cabeza de una mesa redonda que se había instalado en el Salón Este. A su derecha estaba Michael Kratsios, el zar de tecnología del gobierno. También estaba David Sacks, la persona a la que recurre el gobierno para las iniciativas de criptografía e inteligencia artificial (IA), un par de secretarios del gabinete, y los directores de Google e IBM. Melania Trump lucía un traje de color crudo y miraba a una audiencia formada por decenas de tipos de la tecnología. Sam Altman, el director ejecutivo de OpenAI, de aspecto juvenil, se sentó en primera fila y escuchó cómo la primera dama leía de su carpeta. “Vivimos un momento de asombro”, dijo, “y es nuestra responsabilidad preparar a los niños de Estados Unidos”. Melania Trump ya habló desde esta sala en mayo, cuando presentó un nuevo sello de correos conmemorativo de la ex primera dama Barbara Bush. Pero aquel no parecía un acto muy propio de Melania. No fue glamuroso ni, desde luego, vanguardista. Y resulta que esta primera dama es una especie de tecnofuturista. Solo tenemos destellos de ella de vez en cuando, pero se ha mostrado cautivada por las maravillas, los horrores y las oportunidades de las tecnologías modernas, una y otra vez. Tiene su propia criptomoneda (se llama $MELANIA), y generó titulares el año pasado cuando tomó la controvertida decisión de utilizar una IA que imitaba su propia voz para narrar la versión en audiolibro de sus memorias (también se llaman MELANIA). “Que empiece el futuro de la industria editorial”, dijo entonces. Su enfoque característico como primera dama tiene que ver con lo digital. Impulsó con éxito un proyecto de ley para proteger a las mujeres y los niños en internet de la difusión de imágenes falsas, la pornovenganza y el catfishing en internet. La semana pasada lanzó un “Desafío Presidencial de Inteligencia Artificial” en todo el país, invitando a estudiantes y educadores a visitar AI.Gov. Invitó a Hayley Harrison, su jefa de gabinete y confidente de mayor confianza, a la mesa redonda, y la designó como miembro del grupo de trabajo de la Casa Blanca sobre inteligencia artificial. Y así surge el retrato de una primera dama inescrutable, cuyas declaraciones del jueves parecían sacadas de una novela de Philip K. Dick. “Ahora los coches se conducen solos por nuestras ciudades, los robots tienen manos firmes en el quirófano y los drones están redefiniendo el futuro de la guerra”, dijo. Habló de “humanoides de primera generación”. Fue toda una yuxtaposición a cómo su marido había hablado del futuro de la IA solo dos días antes. El martes, Donald Trump estaba hablando en el Despacho Oval cuando un periodista le preguntó sobre un video viral que parecía mostrar cómo se arrojaban bolsas por las ventanas de la residencia de la Casa Blanca. “Probablemente sea un video generado por IA”, dijo Trump. Explicó que tenía que ser un video falso porque las ventanas de la Casa Blanca no se abren tan fácilmente. “De hecho, mi esposa se quejaba de eso el otro día”, dijo. “Me dijo: ‘Me encantaría que entrara un poco de aire fresco’, pero no se puede, son a prueba de balas”. En realidad, ese mismo día, la oficina de prensa de la Casa Blanca había confirmado en un comunicado que el video era real, pero que no había ocurrido nada anormal; se trataba simplemente de “un contratista que estaba haciendo el mantenimiento habitual mientras el presidente no estaba”. Sin embargo, el tema del misterioso video había despertado el interés del mandatario por la inteligencia artificial. “Uno de los problemas que tenemos con la IA: es que es buena y mala, a la vez”, reflexionó. “Si algo ocurre realmente mal, échale la culpa a la IA. Pero también crea cosas; funciona en ambos sentidos”. Justo entonces se le ocurrió un nuevo pensamiento: “Si ocurre algo realmente malo, quizá solo tenga que culpar a la IA”. Esta idea parecía exactamente el tipo de cosas sobre las que su esposa pronto advertiría desde la Casa Blanca (“Debemos gestionar el crecimiento de la IA de forma responsable”). Trump también mencionó otro video que había visto y que lo obsesionaba. Tal y como lo describió, el video lo mostraba evolucionando desde el bebé que era hasta el hombre que es hoy. “Para serte sincero, da un poco de miedo”, dijo. Como dijo su mujer: “Nuestro futuro ya no es ciencia ficción”.
Aunque secuestrar la cámara web de un usuario con el fin de conseguir fotos íntimas para luego chantajear es una técnica altamente usada por los 'hackers', un programa espía ha convertido este delito en un proceso prácticamente automatizado, según reveló una reciente investigación de la firma de seguridad Proofpoint. Se trata de Stealerium, que en el 2022 surgió como un malware de código abierto disponible gratuitamente en GitHub y que aún se puede descargar solo con fines educativos. Si bien el malware de código abierto puede ser útil para que los ingenieros de detección y los cazadores de amenazas comprendan los patrones de comportamiento para los cuales pueden desarrollar firmas de detección de amenazas, también proporciona un tipo de formación diferente a los actores maliciosos. Estos actores pueden adoptar, modificar y posiblemente mejorar el código abierto, lo que resulta en la proliferación de variantes del malware que no son fáciles de detectar ni de combatir. Aunque el malware existe desde hace tiempo, los investigadores de Proofpoint observaron recientemente un repunte en las campañas que distribuyen malware basado en Stealerium. Una campaña vinculada al actor cibercriminal TA2715 en mayo del 2025 dio lugar a un nuevo análisis de Stealerium, que no se había utilizado ampliamente en los datos de amenazas por correo electrónico de Proofpoint desde principios del 2023. TA2536, otro actor cibercriminal de baja sofisticación, también utilizó Stealerium a finales de mayo del 2025. Ambos actores habían utilizado recientemente Snake Keylogger (también conocido como VIP Recovery), por lo que el uso de Stealerium fue notable. Los investigadores de Proofpoint identificaron campañas adicionales hasta agosto del 2025 que emplearon diversos señuelos persuasivos y mecanismos de entrega. Si bien la mayoría de las campañas no se atribuyen a actores de amenazas rastreados, la actividad inicial de TA2715 marcó el primer uso observado de Stealerium en los datos de amenazas de Proofpoint en más de un año. El volumen de mensajes oscila entre unos doscientos y decenas de miles por campaña. Las campañas de Stealerium incluían correos electrónicos con diversos tipos de archivos para su envío, como ejecutables comprimidos, JavaScript, VBScript, ISO, IMG y archivos ACE. Los correos electrónicos observados suplantaban la identidad de diversas organizaciones, como fundaciones benéficas, bancos, tribunales y servicios de documentación, temas comunes en los señuelos de delitos electrónicos. Los asuntos solían transmitir urgencia o relevancia financiera, como "Pago pendiente", "Citación judicial" y "Factura de donación". Por ejemplo, el 5 de mayo del 2025, Proofpoint identificó una campaña TA2715 que suplantaba a una organización benéfica canadiense con un señuelo de "solicitud de presupuesto". Los mensajes contenían un archivo adjunto ejecutable comprimido que, al ejecutarse, descargaba e instalaba Stealerium. Los investigadores también han observado múltiples campañas que aprovechan señuelos relacionados con viajes, hostelería e incluso bodas. Por ejemplo, el 23 de junio del 2025, Proofpoint identificó un tema de solicitud de reserva con ejecutables comprimidos que generaba Stealerium. Esta campaña se dirigió a organizaciones del sector hotelero, así como a organizaciones educativas y financieras. Al igual que muchas campañas de malware genérico, los atacantes que distribuyen Stealerium también utilizan habitualmente señuelos de pago o facturas. En una campaña observada el 24 de junio del 2025, los atacantes utilizaron el tema "Xerox Scan" con un señuelo relacionado con pagos. La campaña se dirigió a cientos de organizaciones a nivel mundial. Estos mensajes contenían archivos JavaScript comprimidos que instalaban Stealerium y realizaban un reconocimiento de red para recopilar perfiles de Wi-Fi y redes cercanas. Finalmente, al igual que muchos actores de amenazas, las campañas que distribuyen Stealerium suelen usar ingeniería social que aprovecha el miedo, la frustración o la emoción para que las personas interactúen con sus mensajes con urgencia. Hemos observado contenido para adultos en algunos señuelos de Stealerium, así como el siguiente ejemplo, que informa al destinatario de que está siendo demandado. Esta campaña se observó el 2 de julio del 2025, con una "fecha de audiencia" el 15 de julio de 2025 para aumentar la urgencia del correo electrónico. Estos mensajes contenían archivos IMG (imagen de disco) con VBScripts incrustados. El VBScript descargaba la carga útil como un ejecutable comprimido que instalaba Stealerium. Tras su ejecución, Stealerium emite una serie de comandos "netsh wlan" para enumerar los perfiles Wi-Fi guardados y las redes inalámbricas cercanas. Su recopilación sugiere la intención de recopilar credenciales almacenadas para el desplazamiento lateral o la geolocalización del host infectado. Los patrones de nombres SSID y las configuraciones de seguridad facilitan las tareas de reconocimiento y pueden permitir a los actores de amenazas acceder de forma fraudulenta desde sistemas cercanos. Cabe precisar que Stealerium es un ladrón de funciones completo escrito en .NET y tiene la capacidad de filtrar una gran variedad de datos, incluidas cookies y credenciales del navegador, datos de tarjetas de crédito (a través del raspado de formularios web), tokens de sesión de servicios de juegos como Steam, datos de billeteras criptográficas y varios tipos de archivos confidenciales. A estar atento a esta amenaza.
El desarrollo global de la inteligencia artificial ha alcanzado un punto de inflexión decisivo. Desde el 2023, China ha acelerado el alcance e influencia de la IA, reflejo de la aspiración general de Beijing de desempeñar un papel de liderazgo en la configuración de un nuevo orden mundial. La IA se perfila como el motor de una nueva era de revolución científica y transformación industrial. La pregunta central —si la tecnología puede crear valor genuino y duradero— ha recibido, en el caso de China, un rotundo "sí". China es ahora no solo un importante motor de la innovación global en IA, sino también un arquitecto indispensable de su gobernanza. Su modelo —bajo coste, alto rendimiento y código abierto— ofrece un nuevo paradigma para el desarrollo global de la IA, que contrasta marcadamente con los enfoques occidentales, basados en la contención competitiva y la ventaja exclusiva. Las ambiciones de Beijing no son improvisadas. En el 2017, el gobierno chino emitió el Plan de Desarrollo de Inteligencia Artificial de Nueva Generación, un documento estratégico fundamental que traza el rumbo para convertirse en el líder mundial en IA para el 2030. Para entonces, se proyecta que la industria china de la IA y sus sectores relacionados alcancen un valor de 1,4 billones de dólares. Más allá del tamaño del mercado, se espera que la IA desempeñe un papel decisivo para contrarrestar los obstáculos demográficos y de productividad, como el envejecimiento de la población y la desaceleración del crecimiento. La visión estratégica es clara: la IA será fundamental para modernizar el modelo socioeconómico de China y llevarlo a una etapa más avanzada, impulsada por la innovación. El enfoque de China se basa en cuatro factores críticos: datos, suministro de energía, potencia informática y mano de obra cualificada. Ya disfruta de ventajas sustanciales en tres de ellos. Su enorme población genera ingentes cantidades de datos; su sector energético se expande y diversifica rápidamente; y su mano de obra está altamente cualificada, especialmente en ciencia, tecnología, ingeniería y matemáticas. El eslabón más débil sigue siendo el hardware informático, donde los controles occidentales a la exportación han intentado limitar el progreso de China, pero también en este ámbito Pekín invierte activamente en la autosuficiencia. Estados Unidos ha contenido el desarrollo de IA de China mediante controles de exportación, bloqueando el acceso de Pekín a los chips más avanzados. En julio del 2025, la administración Trump dio a conocer su propia estrategia de IA, Winning the Race: America's AI Action Plan (Ganando la Carrera: Plan de Acción de IA de Estados Unidos), que busca aprovechar tanto la superioridad tecnológica como las herramientas políticas para capturar una mayor participación en el mercado global. El plan se centra en preservar el liderazgo y dominio tecnológico de Estados Unidos en lugar de abordar los desafíos del mundo real o fomentar el desarrollo económico y social. Aboga por restringir las exportaciones de equipos de IA estadounidenses y frenar la difusión de modelos de IA chinos. Sin embargo, Estados Unidos permanece atrapado en una mentalidad de suma cero, persiguiendo la ilusión de que los bloqueos tecnológicos pueden asegurar una supremacía duradera en IA. China fue el primer país en introducir regulaciones nacionales detalladas y vinculantes sobre IA. Estas normas forman parte de una estrategia mixta: combinando la planificación estatal con incentivos de mercado, promoviendo tanto la resiliencia nacional como la apertura internacional. El marco subraya el papel de la IA no solo como motor de crecimiento, sino también como pilar de la modernización nacional, la transformación social y la participación global. Un aspecto distintivo de la visión china es su redefinición de los datos como el "quinto factor de producción", junto con la mano de obra, el capital, la tierra y la tecnología. Al considerar los datos un activo nacional estratégico, China busca impulsar la innovación en todos los sectores, coordinar la infraestructura para evitar el control monopolístico y proteger el interés público y la seguridad nacional. La estrategia de China en materia de IA se extiende mucho más allá del desarrollo nacional y se extiende al ámbito de la gobernanza global. Desde el 2023, Pekín ha impulsado una ambiciosa agenda diplomática destinada a establecer normas y marcos internacionales para la IA. La Iniciativa de Gobernanza Global de la IA (GAIGI), lanzada en 2023, estableció principios como un enfoque centrado en el ser humano, el respeto a la soberanía nacional, la adhesión al derecho internacional y la distribución equitativa de los beneficios de la IA. Esta iniciativa hace hincapié en la colaboración de código abierto, la seguridad de los datos, la protección de la privacidad y la toma de decisiones por consenso para evitar la concentración del poder de la IA en manos de unos pocos estados o corporaciones. En septiembre de 2024, China presentó el Plan de Acción para el Desarrollo de Capacidades de IA para el Bien y para Todos, diseñado para promover la interoperabilidad, mejorar la conectividad global —especialmente para el Sur Global—, impulsar resultados económicos tangibles, integrar la IA en la educación y fortalecer la seguridad de los datos. El plan incluso contempla una posible plataforma global para el intercambio de datos. En julio del 2025, China dio seguimiento con el Plan de Acción para la Gobernanza Global de la IA, alineando sus iniciativas con el Pacto Digital Mundial de las Naciones Unidas y exigiendo su adopción generalizada, estándares armonizados y un desarrollo ambientalmente sostenible. En la ONU, Beijing ha buscado consolidar estos esfuerzos en marcos multilaterales formales. En julio del 2024, la Asamblea General adoptó una resolución liderada por China para fortalecer la cooperación internacional en IA, con el apoyo de más de 140 países. Ese mismo año, China y Zambia establecieron conjuntamente el Grupo de Amigos para la Cooperación Internacional en el Desarrollo de Capacidades en IA, centrado en reducir la brecha digital en IA y fortalecer el papel de la ONU en la gobernanza global de la IA. China también ha creado foros internacionales para impulsar el desarrollo. La Conferencia Mundial de IA (WAIC), inaugurada en 2024, adoptó la Declaración de Shanghái sobre la Gobernanza Global de la IA. La edición del 2025 no solo publicó el plan de acción global, sino que también propuso la creación de una Organización de Cooperación Global en IA, con sede provisional en Shanghái. Este organismo se centraría en la gobernanza conjunta de la IA, la reducción de las brechas digitales y de datos, y la formulación de normas globales consensuadas, que reflejen, en particular, las necesidades y aspiraciones del Sur Global. Si bien la política estatal establece el marco estratégico, gran parte del progreso de la IA en China lo realizan empresas privadas. Entre los llamados "Seis Tigres" del país (startups líderes en IA), los recientes avances han desafiado el dominio occidental en los modelos de lenguaje de gran tamaño. Una de las empresas destacadas, Z.ai, lanzó su modelo GLM-4-Plus en 2024, igualando el rendimiento del GPT-4o de OpenAI. Su sucesor, GLM-4.5, de 2025, no solo superó los parámetros occidentales y a competidores nacionales como DeepSeek, sino que lo hizo a un coste significativamente menor, socavando la lógica de las restricciones de chips de Washington. En julio, Moonshot, respaldada por Alibaba, lanzó su modelo Kimi K2, un modelo de lenguaje de gran tamaño de bajo coste y código abierto que superó a ChatGPT en varios parámetros. Una de las diferencias más notables entre los modelos chino y occidental reside en su enfoque sobre la propiedad intelectual y el acceso. Mientras que las principales empresas estadounidenses suelen proteger sus tecnologías tras muros de propiedad, China ha adoptado cada vez más marcos de código abierto, especialmente para los modelos fundamentales de IA. A nivel nacional, esto reduce las barreras de entrada para startups e investigadores; a nivel internacional, refuerza el atractivo de China como socio para los países en desarrollo. El modelo chino ofrece una visión de la IA como herramienta para superar las brechas en lugar de profundizarlas. Al alinear el desarrollo de la IA con los objetivos de modernización, integrándola en la educación y la industria, y promoviéndola a través de marcos de gobernanza global, Pekín se posiciona como un líder tanto tecnológico como normativo. La capacidad computacional sigue siendo una vulnerabilidad estratégica, y persisten dudas sobre el equilibrio entre el control estatal y la libertad de innovación. Sin embargo, la dirección es clara: la estrategia china en materia de IA es decidida, coordinada y diseñada a largo plazo. A medida que la IA se convierte en un factor determinante de la competitividad económica, la seguridad nacional y la gobernanza global, las decisiones que se tomen hoy moldearán el orden internacional durante décadas. Estados Unidos continúa aplicando una estrategia basada en mantener su dominio tecnológico mediante la restricción y la exclusión. China, en cambio, se presenta como defensora de la inclusión, la colaboración de código abierto y la gobernanza multilateral, aunque siempre dentro de un marco que salvaguarde sus intereses nacionales. Queda por ver si el enfoque de Beijing se convertirá en el modelo global dominante. Pero sus crecientes capacidades tecnológicas, su proyección diplomática y su énfasis en el desarrollo equitativo y compartido sugieren que la competencia por el liderazgo en IA ya no es inevitable. El auge de modelos como GLM-4.5 y Kimi K2 subraya que la carrera de la IA no es una competencia de un solo caballo, y que la innovación puede prosperar fuera de la órbita de Silicon Valley. En un mundo multipolar, el futuro de la IA no estará determinado por una única potencia hegemónica, sino por una compleja interacción de decisiones tecnológicas, políticas y éticas. La apuesta de China por convertir la IA en un puente, en lugar de una barrera, ofrece un camino posible, y cada vez más influyente, hacia adelante.
Existe un malestar que se viene gestando desde hace tiempo y que se ha acelerado drásticamente desde el 2024. Los académicos lo llaman fatiga mediática, sobrecarga de información o contaminación de datos. Nos repugna cada vez más la miasma de lodo digital reciclado que nos rodea. Esa es la buena noticia, más o menos. La mala noticia es que muchos no ven una salida. No podemos pensar de forma innovadora porque la norma se ha convertido en nosotros. La fatiga mediática es anterior a internet y es resultado del agotamiento psicológico provocado por el flujo incesante de noticias, publicaciones y alertas. Sin embargo, la web impulsó este fenómeno, acelerando los patrones observados por un colega cansado hace décadas: «Ya no hay nada nuevo en las noticias». La fatiga inevitablemente lleva a la evasión. Un estudio del Instituto Reuters reveló que, en el 2023, el 39 % de las personas encuestadas a nivel mundial generalmente evitaban las noticias, frente al 29 % en el 2017. En el Reino Unido, dos de cada cinco personas afirman sentirse agotadas por ellas. La participación en las noticias también está disminuyendo. Entre el 2015 y el 2022, las encuestas globales muestran una caída del 20% al 30% en actividades como compartir, comentar y debatir noticias. Las secciones de comentarios, antes desordenadas pero vibrantes, en muchos casos se han convertido en recriminaciones sin sentido, carentes de seriedad y perspicacia. Esto se debe en parte a otro factor, como ilustra la siguiente sección. Los trolls son de muchas clases: inseguros, autocomplacientes, ideólogos y asesinos a sueldo. A algunos simplemente les pagan para hundir la conversación: para difamar la fuente, desviar el hilo y dejar solo escombros en la sección de comentarios. En resumen, son como parásitos implacables que buscan un huésped tras otro. Recientemente, luego de semanas de vacilación, apareció un artículo que cuestiona la falsa equivalencia entre Palestina y Cachemira, y cuestiona por qué Israel entra en pánico por las armas nucleares fantasma de Irán mientras ignora las 170-180 reales de Pakistán. La sección de comentarios de la noticia pronto se convirtió en un campo de batalla. Un comentarista pakistaní desató una andanada semianalfabeta catalogando los "crímenes de guerra" de la India en Cachemira. Luego apareció el troll prosionista, lanzando acusaciones sin sentido. Curiosamente, ninguno se enfrentó al otro, a pesar de sus ideologías religiosas y geopolíticas, por lo demás hostiles. Ese es el modus operandi de los trolls: expulsar a los reflexivos, drenar el oxígeno y empobrecer la esfera pública. No solo matan la conversación, sino que reducen la capacidad de atención y abonan el terreno para que las noticias falsas se propaguen más rápido y de forma más sucia. Con una capacidad de atención más corta, las generaciones más jóvenes, especialmente la Generación Z, están abandonando los medios tradicionales para centrarse en contenido breve en TikTok, YouTube e Instagram. La cura tiene su propio veneno. Por ejemplo: Hace poco busqué en YouTube "Burkina Faso, aeronaves" para evaluar el ritmo del desarrollo de infraestructuras de esa remota nación. ¿Los mejores resultados?: Traoré sorprende al mundo al presentar el primer avión africano "HECHO EN BURKINA FASO" ; Noticias de aviación: ¡Burkina Faso construye y lanza su propio avión! Para ser claros, estos videos, y otros similares sobre el "primer avión de producción nacional de Burkina Faso", presentan las características obvias de una "cobertura informativa" fraudulenta : tanto los guiones como las voces están generados por inteligencia artificial, y todas las imágenes utilizadas son de archivo, sin rastro alguno del "avión autóctono" a la vista. Incluso esto debería ser suficiente para alertar a un espectador casual, que no se tomará el tiempo ni el esfuerzo de consultar otras fuentes. Quienes lo hagan descubrirán que toda la historia es falsa: Burkina Faso, de hecho, no ha comenzado a producir aviones a nivel nacional, ya que no está en la capacidad de hacerlo. La noticia más cercana al respecto proviene del año pasado, cuando el país reinició su aerolínea nacional y adquirió un nuevo avión para ampliar su flota a cuatro. Sin embargo, estos y otros vídeos sobre el aparente avión casero de Burkina Faso han cosechado cientos de miles de visitas, miles de “me gusta” y cientos de comentarios entusiastas e incondicionales. ¿Han estado las personas sumergidas en la desinformación durante tanto tiempo que no pueden funcionar sin saltar del mar de las noticias falsas al mar de las noticias aún más falsas? ¿Se trata de una especie de aislamiento mental que requiere una dosis constante de basura digital para mantener una falsa sensación de bienestar? Incluso los animales que consumen heces - cerdos, elefantes, tapires, jabalíes - lo hacen por su beneficio nutricional en situaciones de escasez. En cambio, los humanos parecen felices de consumir desechos intelectuales sin ningún beneficio. Burkina Faso no solo no ha construido una aeronave que haya "conmocionado a Boeing, Airbus y al mundo", aunque siete de los ocho primeros resultados de YouTube afirmaran lo contrario, sino que solo dos naciones han desarrollado un ecosistema aeroespacial totalmente independiente: Estados Unidos y Rusia. Incluso los aviones de combate más avanzados de China siguen utilizando motores rusos modificados, a pesar del rápido progreso en alternativas nacionales. El cerebro encuentra seguridad en la repetición porque los patrones familiares exigen menos esfuerzo mental y no conllevan incertidumbre. Esto reduce la vigilancia, y cada repetición refuerza las vías neuronales, proporcionando una pequeña y fiable dosis de dopamina. La comodidad siempre supera a la novedad. Las plataformas explotan esto con algoritmos que alimentan contenido familiar, atrapando a los usuarios en un ciclo repetitivo de confort donde la previsibilidad prevalece sobre la realidad. Esto puede llevar al desplazamiento zombi, donde uno recorre el mismo contenido o uno similar sin buscar nada nuevo. El doomscrolling, al menos, busca nuevos desastres, de forma similar a como un consultor de riesgos se engancha al análisis de amenazas. Quizás los verdaderamente curiosos ya hayan abandonado YouTube, TikTok, Facebook, Instagram y plataformas similares como fuentes de noticias serias. Se refugian en medios de confianza y favoritos, muchos ahora sepultados bajo la baba algorítmica, dejando a los recién llegados a la deriva en un océano de clickbait. De ser así, la brecha digital se ampliará aún más. Y eso son malas noticias para la próxima generación. Cabe precisar que el consumo global de medios ha aumentado durante décadas, pero los analistas predicen el primer descenso en el 2025. Quizás finalmente estemos llegando a la saturación. Quizás algunos se estén rebelando silenciosamente, agotados por la sobrecarga cognitiva. La sobreexposición nos hace pasar por alto en lugar de pensar, y buscamos lo sensacionalista en lugar de lo sustancial. Y ahora mismo, la basura está ganando la batalla por la atención. ¿Adicto a la luz azul? Apágalo. Camina en la oscuridad. Deja que tu cerebro se desintoxique del ciclo, porque en un mundo apático, el acto más rebelde es pensar.
OpenAI acaba de presentar GPT 5, el nuevo modelo de inteligencia artificial (IA) orientado a las empresas y que incorpora las habilidades de las anteriores generaciones, así como agentes (los organizadores que actúan en nombre del usuario) y capacidades avanzadas de matemáticas. Los usuarios de acceso gratuito tendrán una limitación en el uso de indicaciones y dispondrán, próximamente, de versiones más pequeñas y menos potentes: gpt-5-mini y gpt-5-nano (más veloz).Las versiones de pago de GPT, con cinco millones de usuarios, según la compañía, aporta más precisión en los resultados (prompt), mayor velocidad y mejoras en las capacidades de razonamiento, reconocimiento de contexto (fundamental para la fiabilidad de la interacción), lo que la compañía considera “pensamiento estructurado” y capacidades de resolución de problemas. Sean Bruich, vicepresidente sénior de Inteligencia Artificial (IA) y Datos de Amgen, una de las mayores compañías biotecnológicas, ha destacado la importancia del desarrollo, según ha difundido OpenAI: “Exigimos a la IA los más altos estándares de precisión científica y calidad en la toma de decisiones. GPT-5 ha cumplido con ese estándar y está haciendo un mejor trabajo al manejar la ambigüedad cuando el contexto clínico es importante. Los primeros resultados tras desplegar GPT-5 en nuestras herramientas y ChatGPT son prometedores: análisis más profundos, transcripciones más precisas y mayor velocidad en comparación con modelos anteriores». última versión de IA se produce cuando el modelo más popular, el robot conversacional ChatGPT, ha alcanzado los 700 millones de usuarios semanales y se ha incorporado a las herramientas habituales en todo tipo de pantallas. También ha transformado las aplicaciones de búsqueda. “Con GPT 5, las empresas que adopten la IA se beneficiarán rápidamente de la experiencia unificada en ChatGPT y, en casos de uso más avanzados, del rendimiento mejorado de la API en agentes y programación. Prevemos que la adopción temprana impulsará el liderazgo del sector en lo que es posible con la IA impulsada por GPT 5, lo que conducirá a una mejor toma de decisiones, una colaboración mejorada y resultados más rápidos en tareas de gran importancia para las organizaciones”, asegura OpenAI en la presentación del modelo.GPT 5 ya está disponible en ChatGPT Team, Enterprise y Edu para quienes están interesados. Además, el modelo de pago contará en las próximas semanas con una versión Pro. Sam Altman, director ejecutivo de OpenAI, había anunciado este lanzamiento a través de su cuenta en X y anticipado que no será el único, aunque también pedía comprensión por las posibilidades de incidencias en el despliegue de los nuevos desarrollos: “Tenemos muchos lanzamientos previstos para los próximos meses: nuevos modelos, productos, funciones y mucho más. Pedimos paciencia ante posibles incidencias o saturaciones. El camino puede tener altibajos, pero estamos convencidos de que lo que hemos creado te va a encantar”. Una de las novedades de GPT-5 es la unificación de modelos especializados para aprovechar las capacidades que antes se ejecutaban por separado. En este sentido, el desarrollo permite ejecutar múltiples tareas a la vez: imágenes, vídeos y sonido de forma conjunta y coherente. El nuevo motor de IA pasa de los 128.000 tokens de GPT-4 a más de un millón, lo que aumenta su potencial para procesar información, incluso con datos históricos. OpenAI ha mejorado la capacidad de programar de su inteligencia artificial, consiguiendo que GPT-5 pueda generar un programa completo de manera autónoma en poco tiempo a partir de unas pocas indicaciones. En la demostración que la compañía ha realizado en directo ha generado en un minuto una aplicación web de unas 250 líneas de código para aprender francés con distintas pestañas que se ha podido ejecutar al momento. También mejoran las capacidades de redacción, para que los textos, ya sean correos electrónicos, borradores de informes o relatos, sean más personales y tengan una expresión más cuidada. Y en la interacción multimodal, además de alcanzar una experiencia muy similar a estar hablando con una persona, con lenguaje natural, también se ha mejorado la traducción, convirtiendo al chat en un potencial profesor para practicar el aprendizaje de idiomas. Adicionalmente, y para usuarios de las suscripciones de pago, ChatGPT permitirá modificar el color de la interfaz de la conversación individual y cambiar la personalidad del chatbot. Asimismo, los usuarios de las suscripciones Pro, Plus y Enterprise tendrán acceso a la integración de ChatGPT con Gmail y Calendario para mejorarla función de memoria con información actual del usuario. Los trabajos en seguridad se han dirigido a mejorar el rendimiento del modelo para mitigar la aparición de alucinaciones y engaños, cuando se inventa información o la usa de forma incorrecta. Estos trabajos también le permiten admitir cuando no puede completar con éxito una petición o tarea y negarse a responder a preguntas cuando suponen un riesgo. Es, en conjunto, un modelo que impulsa las capacidades de agente con una gran capacidad para la multitarea y que camina hacia la inteligencia artificial general, aunque todavía tiene limitaciones en esta área, ya que todavía no aprende de manera continua a medida que se implementa, como ha apuntado la compañía. Por cierto, OpenAI también ha empleado nuevas técnicas de entrenamiento para enseñar a GPT-5 temas complejos a partir de la creación de los datos correctos con el apoyo de los modelos anteriores.
Muchos usuarios están preparando el salto tras el fin de soporte oficial de Windows 10, que se hará efectivo el próximo 14 de octubre de este mismo año. Por ello, lo lógico sería actualizar hacia Windows 11, pero la realidad es que cada vez más personas lo cuestionan. Los requisitos técnicos, la obligatoriedad de tener una cuenta de Microsoft, la apuesta constante por la inteligencia artificial o las actualizaciones poco transparentes generan desconfianza. En vez de una evolución natural, parece un sistema pensado para controlar tu experiencia, no para facilitarla. En este contexto ha ganado notoriedad un proyecto muy distinto, el cual no se trata de una alternativa que puedas instalar, sino de una propuesta conceptual creada por el diseñador digital AR 4789. Se llama Windows Classic Remastered, o simplemente Windows CR, y no es más que un concepto de cómo sería Windows si hubiese seguido apostando por la simplicidad, la coherencia visual y el control del usuario a lo largo de los años. Combina la estabilidad de Windows XP, el orden de Windows 95 y la rapidez de Windows 98 e integra ideas modernas – accesos rápidos, opciones de personalización, asistentes con IA – sin sacrificar lo que muchos echan de menos, que es una interfaz limpia, sin capas que dificulten lo básico. Es importante mencionar que la propuesta ha captado miles de miradas porque, aunque no se puede descargar ni instalar, debido a que es un concepto, sí refleja algo que muchos usuarios actuales sienten, que con Windows 11 algo esencial se ha perdido. El entorno recuerda a los años 90, pero no se siente anticuado. Todo está en su sitio, con menús accesibles, iconos familiares y un diseño que no distrae. Nada de widgets innecesarios, ni barras redimensionadas que cambian según la aplicación, donde el sistema parece diseñado para funcionar. Asimismo, el panel de control vuelve a tener sentido, puesto que ya no está escondido ni repartido entre diferentes secciones como ocurre hoy. Aquí está unificado, reconocible, sin necesidad de buscar por duplicado entre Configuración y Herramientas del sistema. Las barras de tareas conservan su apariencia clásica, pero permiten configuraciones modernas, como los escritorios múltiples o el acceso rápido a funciones clave. Una de las sorpresas más comentadas es el regreso de Clippy, el mítico asistente con forma de clip. En esta versión, Clippy es una ayuda real, mejorada, con funciones de inteligencia artificial más sutiles que informa sin interrumpir. Eso mismo, llevado al límite, invita a preguntarse: ¿por qué las soluciones actuales como Copilot resultan tan invasivas? El vídeo es perfecto para quienes crecieron con Windows XP debido a que no solo recuerdan una estética; recuerdan la sensación de tener el control. Ahora, esa experiencia se ha fragmentado en capas que muchas veces complican lo más básico. Lamentablemente, Windows Classic Remastered no es un sistema operativo real, por lo que no puedes instalarlo, ni descargarlo, ni trastear con él en una máquina virtual. Es una idea ejecutada que muestra de que se puede imaginar un Windows distinto al que Microsoft nos está vendiendo. Windows 11 no es un mal sistema operativo, ya que es rápido, visualmente atractivo y tiene funciones que pueden resultar útiles. Integra herramientas de inteligencia artificial, un nuevo diseño más centrado en la productividad y mayor seguridad. Sin embargo, lo que ha perdido por el camino pesa más que lo que ha ganado. Para empezar, sus requisitos de instalación han dejado fuera a millones de equipos que siguen siendo perfectamente funcionales. El chip TPM 2.0, la exigencia de UEFI o el arranque seguro no son barreras técnicas imposibles, pero sí arbitrarias para muchos usuarios. Tampoco ayuda que las actualizaciones sean menos predecibles, a veces corrigen errores, otras traen funciones no solicitadas. La sensación de control se ha diluido, por lo que muchos usuarios sienten que el sistema ya no se adapta a ellos, sino que ellos tienen que adaptarse al sistema. Y luego está la IA. Windows 11 ha integrado Copilot como asistente inteligente que, en teoría, una ventaja. En la práctica, muchos lo ven como una función impuesta, con poca utilidad real y con un alto coste en recursos en los ordenadores. Por todo eso, el salto desde Windows 10 se está resistiendo, y es que, a pesar del fin de soporte previsto, muchos usuarios prefieren mantenerse en un entorno que conocen, que funciona y que no les impone un modelo de uso que no han solicitado.
Aquellos contemporáneos de los dinosaurios posiblemente recordarán aquella escena de la película 2001: A Space Odyssey (2001: Una odisea del espacio(, en la que el superordenador Hal se resiste a ser desconectado por sus controladores. La voz del artilugio artificial era tan expresiva que parecía un llanto rogatorio, suplicando seguir en activo. Pero, al dejar de obedecer órdenes y mostrar cierta autonomía decisoria, atemorizó a quienes servía y por eso creyeron necesario desconectarlo. Era la inteligencia artificial rebelada contra sus dueños. ¿Podría ocurrir algo así en nuestra realidad actual, fuera de la ficción cinematográfica? Según una encuesta entre ingenieros de la inteligencia artificial, muchos creen que, más pronto que tarde se van a desarrollar sistemas con un nivel similar al del razonamiento humano en un amplio rango de tareas cognitivas, pero no sabemos si esos sistemas podrán tomar decisiones más racionales que las nuestras. Hasta el momento, lo que se ha observado es que los modelos artificiales de lenguaje también muestran irracionalidades como las humanas. Ante esa dicotomía, la pregunta es ¿cómo piensa y decide un GPT, dotado de cientos de miles de millones de parámetros que usa internamente para tomar decisiones? Algunos expertos creen que ese grado de complejidad le puede conferir al sistema una cierta autonomía, de tal modo que ni siquiera lleguemos a saber todo lo que, en su intimidad, está haciendo. Pero, ¿qué ocurriría si, además de esa complejidad técnica, o gracias a ella, el sistema se hiciera espontáneamente consciente? ¿Es eso posible?Algunos científicos creen que la consciencia, un estado subjetivo de la mente, no es más que un epifenómeno, es decir, algo colateral al funcionamiento del cerebro, tan innecesario e intrascendente como el ruido de un motor o el humo del fuego. Pero otros creen que, lejos de no servir para algo importante, la consciencia funciona como un espejo de la imaginación creado por el propio cerebro que contribuye necesariamente a decidir y controlar el comportamiento. Todavía no sabemos cómo el cerebro hace posible la consciencia, pero una de las grandes teorías que tratan de explicarlo, la teoría de la integración funcional, sostiene que la consciencia es una propiedad intrínseca y causal de los sistemas complejos como el cerebro humano. Es decir, que la consciencia surge espontáneamente en esos sistemas cuando alcanzan una determinada complejidad estructural y funcional. Eso significa que, si los ingenieros fueran capaces de construir un sistema artificial tan complejo como el cerebro humano o equivalente a él, ese sistema sería espontáneamente consciente, incluso aunque, como ocurre en el propio cerebro, no entendiéramos cómo es posible que lo fuera.Por si eso llegara a ocurrir, un mar de preguntas nos invade. La primera es: ¿cómo sabríamos si una computadora o artilugio artificial es consciente y cómo se relacionaría con nosotros? ¿Solo por audios o escritos en una pantalla? ¿Requeriría un cuerpo material expresivo, equivalente al de una persona, para manifestarse e interactuar con su entorno? ¿Acaso podrían existir (o existen) en nuestro universo ingenios o entidades conscientes sin que tengan modo alguno de hacérnoslo saber? ¿Podría, en cualquier caso, un ingenio artificial consciente superar a la inteligencia humana y tomar decisiones más racionales y acertadas que las nuestras? Pero, eso no es todo, porque, como en el caso de la supercomputadora Hal, otras preguntas pueden llegar a atemorizarnos. Un sistema artificial consciente, ¿desarrollaría, como lo hace nuestro cerebro, un sentido del yo y de agencia? Es decir, ¿podría sentirse capaz de actuar voluntariamente e influir en su entorno al margen de las instrucciones que recibiera de sus creadores? Ya puestos, ¿podría ese sistema ser más persuasivo que los humanos para influir, por ejemplo, en decisiones que nos competen a nosotros y no a las maquinas? Es mas ¿podría un sistema de esa naturaleza llegar a tener sentimientos? ¿Cómo lo sabríamos si no los pudiéramos ver reflejados en la expresión de un rostro o imagen cuya cualidad y sinceridad pudiéramos valorar como hacemos para entender los sentimientos de las demás personas distinguiendo una sonrisa falsa de una verdadera? Y, quizá lo más importante, ¿cómo esos sentimientos, si el ingenio artificial los tuviera, influirían en sus decisiones? ¿Lo harían de modo tan determinante como lo hacen en las nuestras? ¿Estaríamos, de ese modo, construyendo una especie de humano artificial con responsabilidades éticas y jurídicas? ¿O esas responsabilidades tendrían que ser derivadas a sus creadores? ¿Un sistema artificial consciente podría merecer un premio Nobel si descubriera una cura para la violencia de género o el Alzheimer? ¿Discutiría con nosotros una máquina consciente como lo haría otra persona? ¿Podríamos influir en sus decisiones, o podría, como Hal, dejar de hacernos caso y tomar las suyas propias, aunque fuesen incompatibles con las nuestras? Ello es lo más probable… y lo que más tememos. En 1997, Rosalind Picard, ingeniera norteamericana del MIT, publicó Affective computing. Fue como un ancestral intento de considerar y valorar la importancia de las emociones en la inteligencia artificial. Para que los ordenadores sean genuinamente inteligentes y puedan interactuar con nosotros de un modo natural, debemos dotarlos con la capacidad de reconocer, comprender e incluso tener y expresar emociones. El problema era, y sigue siéndolo ahora, que las emociones son los cambios reflejos y automáticos (hormonas, resistencia eléctrica de la piel, frecuencia cardíaca, etc.), casi todos inconscientes, que ocurren en nuestro cuerpo ante pensamientos o circunstancias impactantes (enfermedades, accidentes, pérdidas, éxitos, fracasos o aciertos sentimentales, etc.), mientras que los sentimientos son las percepciones conscientes (miedo, amor, envidia, odio, vanidad, etc.) que el cerebro crea al notar retroactivamente esos cambios corporales que él mismo origina. Actualmente, a muchos años de la publicación de dicho libro, solo concebimos la posibilidad de implementar en los ingenios artificiales cambios físicos inconscientes, equivalentes a las emociones humanas, pero, estamos todavía muy lejos de poder hacer que esos cambios generen en sus portadores sentimientos como los que tenemos los humanos. Eso, si llegara a ocurrir, lo cambiaría todo.
La bestia sionista, que hace morir de hambre a miles de niños palestinos en la asediada Franja de Gaza ante la vista de todo el mundo que no se inmuta ante este monstruoso crimen, tiene motivos para estar contento. Y es que sus negocios con las empresas tecnológicas son cada vez más suculentos. En efecto, Google, Microsoft, Apple, Twitter, Meta y Amazon - entre otras - se van a la guerra. No es una metáfora. Tras años evitando que se les vincule públicamente con el complejo militar-industrial, las Big Tech se han echado al monte. La vuelta de Donald Trump a la Casa Blanca ha sido el empujón definitivo para que a muchas compañías les deje de dar apuro firmar contratos con el Ejército. Más allá de la conexión de los tecnomagnates con el presidente de EE. UU. escenificada en su ceremonia de toma de posesión, este quiere invertir un billón de dólares en el 2026 para “modernizar” las fuerzas armadas, lo que, desde su punto de vista, pasa por introducir la inteligencia artificial (IA) en la defensa.Eso es música para los oídos de los gigantes de Silicon Valley, que esta semana ya han visto que el republicano va en serio. OpenAI, Google, Anthropic y xAI (la empresa de IA del denostado y caído en desgracia Elon Musk), han obtenido contratos de hasta 200 millones de dólares cada uno para fomentar las capacidades avanzadas de IA en el Departamento de Defensa.La contratación de funcionarios del Pentágono por parte de las tecnológicas no es una novedad. Meta ha protagonizado recientemente esfuerzos en ese sentido, según desveló Forbes, “para que le ayuden a vender sus servicios de realidad virtual e IA al gobierno federal”. Lo que no es tan habitual es que los fichajes se realicen en sentido inverso. En junio, el Ejército anunció el nombramiento de cuatro tenientes coroneles en la reserva para el nuevo Destacamento 201, también conocido como el Cuerpo Ejecutivo de Innovación, encargado de “fusionar experiencia tecnológica puntera con innovación militar”. Los elegidos son Adam Bosworth, jefe de tecnología de Meta y hombre de confianza de Zuckerberg; Kevin Weil, responsable de producto de OpenAI; Shyam Sankar, director de tecnología en Palantir, y Bob McGrew, exdirectivo de Palantir y OpenAI.El hecho de que haya ejecutivos con galones militares es tan simbólico como indicativo del momento que atravesamos. Se están diluyendo a pasos agigantados las fronteras entre Silicon Valley y el Pentágono.El cortejo es constante en los últimos tiempos. Google eliminó en febrero de su código de conducta la restricción a desarrollar armas o herramientas de vigilancia masiva. Microsoft reconoció en mayo que, desde que se inició la invasión de Gaza y el asesinato en masa de la población palestina, ha vendido al ejército israelí tecnología avanzada de IA y servicios de computación en la nube. OpenAI, la empresa desarrolladora de ChatGPT, se hizo en junio con otro contrato de 200 millones de dólares por el cual facilitará al Pentágono sus herramientas de IA generativa. La compañía también cambió en enero de 2024 su política de uso para suprimir la prohibición que impedía utilizar su tecnología en tareas “militares y de guerra”: ahora se permiten los “casos de uso de seguridad nacional que se alineen con nuestra misión”. Ya en diciembre, la empresa anunció una alianza con Anduril, una startup de tecnología militar que ha configurado junto a Palantir un consorcio para presentarse a concursos de Defensa.En noviembre, Meta desveló que había dado luz verde para que sus modelos de IA estén disponibles para los contratistas militares Lockheed Martin y Booz Allen. Scale AI, la empresa en la que Meta invertirá 14.300 millones de dólares y a cuyo fundador, Alexandr Wang, ha fichado para su división de investigación en IA general, es la elegida por el Pentágono para realizar los tests y evaluaciones de los grandes modelos de lenguaje que usará el ejército. En mayo de este mes, la empresa fundada por el judío Mark Zuckerberg hizo público un acuerdo con Anduril para desarrollar gafas de realidad virtual y mixta para los soldados. Al respecto, la relatora especial de Naciones Unidas en los territorios palestinos ocupados, Francesca Albanese, describió en un informe cómo la tecnología corporativa, los proveedores de servicios en la nube y las empresas armamentísticas están profundamente entrelazados en una “economía del genocidio”. De acuerdo con el informe, Microsoft, HP, IBM, Google y Amazon, entre otras, están implicadas en tecnologías de vigilancia allí desplegadas. IBM ha contribuido a la recopilación y uso gubernamental de bases de datos biométricos de palestinos, mientras que tanto Microsoft y Palantir como Google y Amazon dan soporte en la nube y a los sistemas del gobierno y el Ejército israelí. Pero como era de esperar, Albanese ha sido sancionada por EE.UU. por sus denuncias.“Desde la perspectiva de la historia de la tecnología, diría que hay una continuidad. Nuestro concepto occidental de tecnología moderna tiene su génesis en el ámbito militar o de la seguridad”, sostiene Lorena Jaume-Palasí, experta en ética y filosofía del derecho aplicadas a la tecnología. Internet se concibió como un sistema de comunicaciones seguro para las fuerzas armadas. Antes de llevarnos a destino en los viajes, el GPS guiaba a los misiles y submarinos. Y como estos hay incontables ejemplos.Luego está la cuestión del tamaño. Ocho de las diez mayores empresas del mundo por capitalización bursátil son tecnológicas y estadounidenses: Nvidia, Microsoft, Apple, Amazon, Alphabet, Meta, Broadcom (fabricantes de semiconductores) y Tesla. Solo dos, la saudí Aramco y el fondo Berkshire Hathaway, se dedican a otros negocios. Sería osado minusvalorar la capacidad de influencia de la industria más poderosa del mundo. Han conseguido, por ejemplo, que el desarrollo de una IA cada vez más potente sea considerada una cuestión de seguridad nacional, aunque detrás esté el ánimo de lucro y se perjudique al medioambiente. El propio Trump ha dicho en varias ocasiones de que las empresas estadounidenses “deben ganarle a China la carrera armamentística de la IA” que está en clara ventaja.“Nosotros argumentamos que eso es simplemente una cobertura para que estas empresas concentren todavía más poder y fondos”, dice HeidyKhlaaf, científica jefa de IA en AI NowInstitute, un centro de investigación enfocado en las consecuencias sociales de la IA. Presentarse como protagonistas de una cruzada casi civilizatoria protege a las tecnológicas de “fricciones regulatorias”, al tildar cualquier llamamiento a la rendición de cuentas como “un perjuicio a los intereses nacionales”. Y les permite posicionarse “no solo como demasiado grandes, sino también como demasiado importantes estratégicamente para fracasar”, lee un reciente informe de AI NowInstitute.Sin embargo, el hecho de que las grandes corporaciones de la tecnología comercial manejen asuntos de seguridad nacional puede traer problemas. “Los modelos como Llama de Meta o GPT-4 de OpenAI introducen vulnerabilidades de ciberseguridad, creando nuevos vectores a través de los cuáles los países enemigos pueden dañar nuestra seguridad”, escribió hace poco Khlaaf en una tribuna de opinión en The New York Times. Esos sistemas se pueden manipular “envenenando los datos” con los que se han entrenado. “Las empresas de IA han podido eludir los estándares militares que deben seguir los sistemas de defensa, promoviendo una narrativa infundada de carrera armamentista en IA. La seguridad nacional sigue siendo una fuerza clave que moldea la formulación de políticas en torno a la IA, y es utilizada por las empresas del sector tanto para evitar regulaciones como para atraer inversiones”, aseguro. Khlaaf recuerda que si estas corporaciones pueden hacer negocios con el sector militar es gracias a todos nosotros. “La información personal identificable utilizada para entrenar los modelos permite que la IA sea usada con fines militares, como en capacidades ISTAR (inteligencia, vigilancia, adquisición de objetivos y reconocimiento), ya que esos datos permiten a los sistemas vigilar y apuntar a poblaciones específicas”, subraya. “En última instancia, seamos o no usuarios de herramientas de IA, nuestros datos hacen posible que la IA se use con fines militares y de vigilancia sin nuestro consentimiento”.La nueva orientación de las grandes tecnológicas genera contradicciones internas. Muchos trabajadores han organizado protestas o hasta han dimitido por la vinculación de sus compañías con el sector militar. Entre los últimos episodios destacan las manifestaciones en abril del año pasado de empleados de Google en la sede de Nueva York, Sunnyvale (California), San Francisco y Seattle de la multinacional. El motivo: el llamado proyecto Nimbus, un contrato de unos 1.200 millones de dólares por los que presta soluciones en la nube al régimen sionista y a sus fuerzas armadas. Esas protestas se saldaron con 28 despidos.Más recientemente, en abril de este año, Microsoft despidió a dos trabajadores que se quejaron públicamente del suministro de IA a Israel. En febrero, otros cinco empleados fueron expulsados de una reunión en la sede central de Redmond con el director general de la compañía, Satya Nadella, por protestar contra los contratos para proporcionar servicios de inteligencia artificial y computación en la nube al ejercito sionista.“Los valores democráticos occidentales están amenazados”, dijo a Axios el fundador de Google DeepMind, DemisHassabis, luego de que su matriz cambiara el código de conducta de la compañía para dar cabida a actividades relacionadas con el sector militar. “Tenemos el deber de poder ayudar en aquello en lo que estamos especialmente capacitados y en posición de hacerlo”. El también premio Nobel de Química puso como ejemplo el desarrollo de defensas contra ciberataques y ataque biológicos impulsados por IA. “He dicho en varias ocasiones que estoy en contra de las armas autónomas, pero algunos países las están construyendo. Eso es simplemente una realidad”.
Jules Verne, autor de un sinfín de relatos sobre hazañas y descubrimientos en los lugares más recónditos, es para muchos uno de los escritores más geniales del siglo XIX. Sus historias sobre osados aventureros que no dudan en explorar las entrañas de la Tierra constituyeron una fuente permanente de emoción e interés popular. Pero el ingenio de Verne fue más allá de su fértil imaginación. El escritor planteó interrogantes nada fantasiosos para los científicos: ¿cómo debe de ser el interior del planeta?, ¿puede alcanzarse su punto más profundo? Sus fantasías y los conocimientos del geólogo Charles Joseph Sainte-Claire Deville (inmerso en el estudio de los conductos y las estructuras de los volcanes) se unieron con éxito en A Journey to the center on the Earth (Viaje al centro de la Tierra - 1864). La novela cuenta cómo el profesor Lidenbrock, acompañado por su sobrino y un guía islandés - cazador de eiders -, alcanzan el centro del planeta tras descender por el cráter del volcán Sneffels, en Islandia, y emergen de nuevo a través del Stromboli, en Sicilia. Verne imaginó que en el interior terrestre había un mar habitado por criaturas prehistóricas. Así, los expedicionarios presencian asombrados el combate entre dos reptiles marinos extintos (un ictiosaurio y un plesiosaurio) en medio de agitadas aguas. El relato se concibió en una época en que los geólogos empezaban a sentar las bases metodológicas de su incipiente ciencia. Pero a diferencia de los exploradores vernianos, hoy los geofísicos disponen de técnicas capaces de aportar valiosa información sobre la constitución del interior terrestre sin haberse aventurado personalmente en sus profundidades. Incluso es posible recrear las condiciones del centro de la Tierra en un laboratorio (aunque claro, son solo teorías que no siempre son certeras).No obstante, la pregunta sigue en el aire: ¿podremos algún día alcanzar el centro de la Tierra? El objetivo plantea retos imposibles de lograr hoy. El interior del globo es un medio mucho más hostil que el espacio exterior o las profundidades marinas. En él, las presiones son tan intensas y las temperaturas tan elevadas que cualquier vehículo que se viera sometido a ellas acabaría aplastado o fundido.En Viaje al centro de la Tierra, Jules Verne no proveyó a sus exploradores de un transporte. Estos simplemente descienden a pie, cruzando simas y galerías. Pero la realidad geológica es muy distinta, no existen cavernas que conecten su interior. Para llegar hasta allí necesitaríamos una tecnología e ingeniería pesada extremadamente complejas. No obstante, cada vez conocemos mejor los entresijos de nuestro mundo, e ingeniosos proyectos esperan batir récords de profundidad.Al igual que una ecografía muestra el desarrollo de un feto en el vientre materno, la sismología revela información de cómo está constituido el interior terrestre. Pero, mientras que el ecógrafo genera un sistema de ondas y registra su desplazamiento a través del cuerpo humano en diferentes velocidades, el sismógrafo depende de la aparición de ondas sísmicas (cerca de un millón al año) para captar qué sucede en las entrañas de nuestro planeta.La velocidad a la que este tipo de ondas se desplaza por el manto terrestre (ubicado justo por debajo de la superficie) permite averiguar la estructura de la Tierra. Desde principios del siglo XX se sabe que las ondas sísmicas atraviesan las rocas frías a mayor velocidad que las calientes. Su llegada a la superficie se registra en la actualidad mediante un sistema de monitores repartidos por todo el mundo, y los datos obtenidos por estos son transformados luego en imágenes similares a representaciones gráficas de sonidos.El interior de la Tierra no se está quieto. Las rocas calientes ascienden a la superficie en grandes masas (las denominadas plumas) y las frías se hunden en el manto en enormes grietas (o zonas de subducción). Se trata de movimientos que se vienen produciendo de forma constante desde que la Tierra tiene una corteza estable.En los años noventa del siglo pasado, el científico Paul Tackley, por entonces profesor en la Universidad de California de Los Ángeles, se propuso dilucidar estos fenómenos en imágenes tridimensionales. Él y su equipo simularon el movimiento del manto a lo largo de... ¡dos mil millones de años! ¿Cómo “se comportan” las rocas del interior terrestre ante las extremas condiciones que reinan en el manto o incluso el núcleo, el corazón de planeta? Para averiguarlo, los petrólogos experimentan en los laboratorios con diamantes, los materiales de mayor dureza y conductividad térmica. Las muestras se colocan en un dispositivo capaz de simular las enormes presiones y temperaturas existentes en el interior del globo. Pueden obtenerse presiones del orden de los cuatro millones de atmósferas y calentamientos por medio de rayos láser de miles de grados centígrados. Por cierto, la carrera científica entre EE. UU. y Rusia durante la guerra fría no se libró solo en el espacio. Bajo nuestros pies ambos países se marcaron otra meta: perforar la Tierra hasta la frontera entre la corteza y el manto, una zona conocida como discontinuidad de Mohorovicic, o Moho (su abreviatura).Los norteamericanos dieron el primer paso. En 1957, el oceanógrafo Walter Munk propuso perforar la corteza oceánica en una zona cercana a la costa de México. El proyecto, denominado Mohole (juego de palabras entre Moho y hole, agujero), expiró luego de nueve años, víctima de la improvisación presupuestaria y de las desavenencias políticas. Tan solo se pudo penetrar 183 m en la corteza oceánica, una distancia nada desdeñable para la época, pero muy por debajo de las expectativas (hasta 4.500 m). En tanto, los rusos contraatacaron en 1970 desde tierra firme. Durante dos décadas, el pozo que abrieron con fines científicos en la península de Kola, en el norte del país, fue el más hondo del mundo. Consistía en una perforación central de la que partían varias ramificaciones. La más extensa de ellas, la SG-3, alcanzó los 12.262 m de profundidad en 1989, no sin esfuerzo.Los operarios tuvieron que hacer frente a un derrumbe, retroceder en el camino horadado varios kilómetros e iniciar un nuevo ramal de perforación. Las elevadas temperaturas (180 °C a 10.000 m bajo tierra) les impidieron penetrar aún más en el planeta. Sus trabajos se detuvieron en 1992, aunque el proyecto se mantuvo hasta el 2005, cuando se finiquitó por falta de financiación. Cabe precisar que el interés por conseguir muestras directas del manto superior ha disminuido entre los petrólogos y los geoquímicos, ya que estos pueden conocer la naturaleza química de esta zona terrestre mediante pruebas indirectas y estudios de laboratorio. Pese a ello, ha habido varios proyectos de sondeos marinos, alguno todavía en marcha.El primero de ellos, el Deep Sea Drilling Project (DSDP, o Proyecto de Sondeo del Mar Profundo), estuvo activo de 1966 a 1983, primero bajo bandera únicamente estadounidense y luego con contribuciones internacionales. El DSDP tuvo su centro de operaciones en el Glomar Challenger, el primer barco diseñado para perforar el lecho marino. Las operaciones confirmaron el movimiento de los continentes y la relativa juventud (en términos geológicos) de los suelos oceánicos, con no más de 200 millones de años de antigüedad. Además, proporcionaron valiosos datos acerca de la circulación de las aguas en el pasado y de la composición de su fondo, una información muy útil para las petroleras a la hora de emplazar potenciales reservorios. Registraron también un récord de profundidad de un sondeo marino, los 1.741 m. Su sucesor, el Ocean Drilling Program (ODP, Programa de Sondeo Oceánico), fue desde su inicio, en 1985, hasta su fin, en el 2003, un proyecto de colaboración científica entre varios países. Desde el JOIDES Resolution, un buque más grande y avanzado que el Glomar Challenger, se realizaron 120 expediciones y 2.000 hoyos. El proyecto se saldó con una nueva marca de profundidad, los 2.111 m. El tercer programa de la lista, el Integrated Ocean Drilling Program (IODP, Programa de Sondeo Oceánico Integrado), activo entre el 2003 y el 2013, recogió el espíritu colaborativo de sus antecesores (contó con la participación de 26 países), pero se distinguió de los arriba descritos en que llevó a cabo sus operaciones desde múltiples plataformas. En el 2013 inició una nueva fase bajo el nombre de International Ocean Discovery Program, aún en activo.Las compañías petrolíferas han sabido aprovechar los avances en tecnología de perforación de todos estos programas para descubrir bolsas de crudo. De hecho, la iniciativa económica está detrás de las mayores cotas de profundidad alcanzadas. Así, en el 2008, la empresa danesa Maersk Oil logró penetrar 12.290 m de corteza continental en su campo petrolífero de Al Shaheen, en Qatar, y en el 2017 ExxonMobil llegó a los 15.000 metros en un pozo petrolero en alta mar cerca de la isla rusa de Sajalín.No obstante, los científicos esperan superar esta marca. Aunque hoy por hoy son conscientes de que es imposible llegar al núcleo terrestre, se siguen ideando métodos para llegar a lo más profundo posible. En la década pasada, el fisicoquímico moldavo-británico Michael Ojovan se puso al frente de un equipo de la Universidad de Sheffield, en Gran Bretaña, y otro del Instituto de Materiales Inorgánicos de Bochvar, en Rusia, que buscaban superar los 100 km mediante el uso de una pequeña probeta con un radio inferior a un metro.Su trabajo contemplaba el descenso de una especie de cápsula que fundiese las rocas. El hecho de estar fabricada parcialmente en tungsteno, un material altamente resistente, la salvaría de desaparecer derretida hasta alcanzar los 3.410 °C. La odisea recuerda a las nacidas de la pluma de Verne. Si bien alcanzar el núcleo del planeta no es factible debido a la complejidad de la empresa, se desconoce si un hoyo tan profundo alteraría la estructura terrestre.
El diario oficial del Ejército Popular de Liberación de China - PLA Daily - ha publicado este jueves un análisis relativo al uso de robots humanoides en la esfera militar, según da cuenta South China Morning Post. En efecto, el periódico oficial del ejército chino advirtió sobre posibles preocupaciones éticas asociadas con el uso de combatientes humanoides, afirmando que los militares deberían realizar “investigaciones éticas y legales sobre los robots humanoides para evitar trampas morales”. “Los robots humanoides militares son las armas más parecidas a los humanos hasta la fecha, y su uso normalizado y a gran escala podría conducir a asesinatos indiscriminados y muertes accidentales, lo que inevitablemente resultaría en cargos legales y condena moral”, dice el artículo. Este fue firmado por Yuan Yi, Ma Ye y Yue Shiguang, pero el periódico no especificó sus afiliaciones. Los autores citaron las Tres Leyes de la Robótica del escritor de ciencia ficción estadounidense Isaac Asimov, un conjunto de principios escrito en 1942, que han influido en los debates sobre la ética de las aplicaciones del mundo real en este campo. Los autores dijeron que los robots humanoides militarizados “claramente violan” la primera de las leyes de Asimov, que establece que un robot “no puede dañar a un ser humano o, por inacción, permitir que un ser humano sufra daño”. Agregaron que las leyes de Asimov necesitaban ser revisadas a la luz de estos acontecimientos. También destacaron las implicaciones legales, diciendo que los robots humanoides en escenarios militares deben cumplir con los principios fundamentales de las leyes de la guerra al “obedecer, respetar y proteger a los humanos”. Según los autores, estos robots deberían ser capaces de “suspender y limitar el uso excesivo de la fuerza de manera oportuna y no matar personas indiscriminadamente”. Agregaron que las mayores ventajas de los robots humanoides eran sus brazos mecánicos y su “capacidad de utilizar la maquinaria de manera flexible”. Según los autores, “un gran número de tareas militares que no pueden ser sustituidas por sistemas no tripulados activos pueden incluirse en la lista de tareas requeridas para los robots humanoides”. El artículo afirma que los militares deberían “estudiar cuidadosamente y proponer” los requisitos militares para planificar el desarrollo de robots humanoides. También reconoció que estos tenían limitaciones en términos de velocidad y adaptabilidad ambiental y que, comparados con otros equipos no tripulados, eran “más caros y más complejos de implementar tecnológicamente”. “Incluso si los robots humanoides maduran y se utilizan ampliamente en el futuro, no reemplazarán por completo a otros sistemas no tripulados”, afirmaron. Este fue el último de varios artículos del PLA Daily que abordan el uso de robots humanoides en el campo de batalla. En mayo, un artículo afirmaba que los robots humanoides podrían «seguir transformando la percepción de la humanidad sobre el futuro de la guerra». El artículo de mayo señalaba que los robots humanoides poseían «capacidades de toma de decisiones inteligentes y de combate autónomo basadas en algoritmos de inteligencia artificial (IA)». Elogiaba su capacidad para evaluar inteligentemente el entorno del campo de batalla y «completar misiones de combate de forma autónoma». Como sabéis, los robots humanoides se sitúan en la intersección de la inteligencia artificial , la fabricación avanzada y la inteligencia incorporada: áreas fundamentales para los esfuerzos de China por obtener una ventaja en su feroz competencia con Estados Unidos. Varias empresas chinas han introducido robots muy versátiles este año, lo que aumenta la confianza en la tecnología, y Beijing está ansioso por consolidar el liderazgo inicial de China en este campo. Los robots humanoides se utilizan principalmente en aplicaciones industriales como la logística y la fabricación, mientras que otros se utilizan en investigación, instituciones educativas y la industria de servicios. Actualmente varios países están compitiendo para desarrollar robots humanoides para uso militar, aunque su despliegue a gran escala sigue siendo - de momento - una perspectiva lejana, pero cuando esta llegue, debemos estar preparados ante los riesgos que representarían a los humanos.