Cada primavera, las Dos Sesiones de China - las sesiones plenarias anuales conjuntas de la Asamblea Popular Nacional y del Comité Nacional de la Conferencia Consultiva Política del Pueblo Chino - ofrecen una perspectiva de las prioridades políticas del país. La reunión de este año transmitió un mensaje particularmente claro: en un mundo de creciente turbulencia geopolítica, Beijing está situando la seguridad y la modernización militar firmemente en el centro de su estrategia a largo plazo. Las sesiones del 2026 se desarrollaron en un contexto económico complejo. La economía china sigue creciendo, pero a un ritmo más lento que en décadas anteriores. Sin embargo, las reuniones dejaron claro que la cautela económica no implica indecisión estratégica. Por el contrario, el liderazgo está redoblando sus esfuerzos en la idea de que el desarrollo y la seguridad deben reforzarse mutuamente. El ‘emperador’ Xi Jinping subrayó este punto al situar la modernización del Ejército Popular de Liberación (EPL) en el centro de la planificación futura de China. De hecho, se espera que las fuerzas armadas desempeñen un papel fundamental en el XV Plan Quinquenal del país, que guiará el desarrollo entre 2026 y 2030. Este plan refleja un cambio fundamental en el pensamiento estratégico de China: la alineación de la política económica con las prioridades de seguridad nacional. En el centro de este enfoque se encuentra la autosuficiencia tecnológica, especialmente en sectores vinculados a la defensa, la manufactura avanzada y la inteligencia artificial. Para el Ejército Popular de Liberación (EPL), la siguiente etapa de modernización ya está tomando forma. Los estrategas chinos la describen como «inteligencia artificial», la integración de la IA, los sistemas autónomos y las redes de datos avanzadas en las operaciones militares. Este concepto representa la tercera fase de la transformación militar de China, tras las etapas anteriores de mecanización e informatización. En términos prácticos, la inteligencia artificial implica el uso de tecnologías basadas en IA para acelerar la toma de decisiones en el campo de batalla, mejorar los sistemas de mando y control, y brindar a los comandantes militares una mayor conciencia situacional. El objetivo es lograr el dominio en la toma de decisiones: la capacidad de procesar información con mayor rapidez y actuar con más eficacia que los adversarios potenciales. Esta visión también refleja la perspectiva de Beijing sobre el futuro de la guerra. Ya no se espera que los conflictos se desarrollen únicamente en los campos de batalla tradicionales. En cambio, podrían abarcar múltiples ámbitos simultáneamente, combinando espacios físicos, virtuales y cognitivos. Los analistas chinos se refieren cada vez más a estos conflictos futuros como «metaguerras», donde las operaciones cibernéticas, la guerra de la información, la IA y la influencia psicológica se combinan con el poder militar convencional. Para prepararse para este entorno, el Ejército Popular de Liberación (EPL) ha recibido instrucciones de centrarse en una serie de tecnologías de vanguardia. La inteligencia artificial ocupa un lugar central en la agenda, junto con la computación cuántica, las armas hipersónicas y los sistemas avanzados de vigilancia. Se espera que, en conjunto, estas capacidades ayuden a China a asegurar una posición estratégica ventajosa en un mundo caracterizado por una competencia tecnológica cada vez más intensa. Una de las herramientas clave para lograr esta transformación es la fusión civil-militar. Este concepto, impulsado desde hace tiempo por el liderazgo chino, busca eliminar las barreras entre la innovación civil y la investigación militar. Al integrar universidades, empresas privadas e industrias estatales en el desarrollo de la defensa, Beijing espera acelerar los avances tecnológicos y, al mismo tiempo, fortalecer la base industrial del país. Al mismo tiempo, las Dos Sesiones destacaron la importancia de la disciplina y la supervisión dentro de las propias fuerzas armadas. En su intervención ante el pleno de la delegación del Ejército Popular de Liberación y la Policía Armada Popular en la Asamblea Popular Nacional el 7 de marzo, Xi Jinping hizo hincapié en la necesidad de una supervisión estricta de los proyectos militares y los flujos financieros durante el próximo ciclo de planificación. El mensaje fue inequívoco: la modernización exige rendición de cuentas. Xi pidió una supervisión más rigurosa de los principales programas militares, un control más estricto del uso de los fondos y una mayor vigilancia de los proyectos de integración civil-militar. En sus palabras, no debe haber lugar para la corrupción ni la deslealtad política en las fuerzas armadas. Estas declaraciones se producen en medio de la reorganización más significativa de la cúpula militar china en décadas. En los últimos años, decenas de oficiales de alto rango han sido destituidos de sus cargos o privados de sus puestos políticos tras investigaciones disciplinarias. Las cifras oficiales muestran que, desde el XX Congreso del Partido Comunista en el 2022, al menos 36 altos oficiales han perdido su condición de delegados ante la Asamblea Popular Nacional. Algunos analistas estiman que más de 100 altos oficiales del Ejército Popular de Liberación podrían haber sido investigados o purgados durante el mismo período. Si bien se han mencionado con frecuencia las acusaciones de corrupción, la campaña refleja objetivos estratégicos más amplios. Desde que llegó al poder en el 2012, Xi Jinping ha hecho de la reforma militar una de sus prioridades centrales. En su opinión, la corrupción socava la eficacia operativa y ralentiza el proceso de modernización. Igualmente, importante es la cohesión política. A diferencia de muchos ejércitos nacionales, el Ejército Popular de Liberación (EPL) es formalmente leal no al Estado, sino al Partido Comunista. Por lo tanto, garantizar la disciplina ideológica dentro del cuerpo de oficiales se considera esencial para mantener la estabilidad y la unidad durante un período de rápida transformación. A pesar de la magnitud de estos cambios, hay pocas pruebas de que hayan afectado a las capacidades operativas del ejército. Por el contrario, parecen estar dirigidos a garantizar que los oficiales responsables de implementar la agenda de modernización de China sean competentes y políticamente fiables. Paralelamente a la reforma interna, el presupuesto de defensa de China continúa expandiéndose a un ritmo moderado. Para el 2026, Beijing anunció un gasto militar de aproximadamente 1,9 billones de yuanes (unos 278.000 millones de dólares), lo que representa un aumento de alrededor del 7 %. Esto se produce tras tres años de crecimiento similar. Si bien la participación de China en el gasto militar de Asia ha aumentado significativamente -alcanzando casi el 44% en el 2025 -, su gasto en defensa sigue siendo modesto en comparación con el de Estados Unidos. El presupuesto militar de Washington ronda los 1,01 billones de dólares, más del triple que el de China. En relación con el tamaño de su economía, Beijing destina alrededor del 1,26% de su PIB a la defensa, muy por debajo del 3,5% que gasta Washington. El gasto en defensa del país sigue siendo moderado, transparente y económicamente sostenible. El objetivo no es construir una presencia militar global comparable a la de Estados Unidos, que mantiene cientos de bases en el extranjero. En cambio, la prioridad china es garantizar una disuasión creíble y proteger la soberanía nacional, al tiempo que mantiene la estabilidad en la región circundante. Gran parte de la nueva financiación se destinará a mejorar las capacidades tecnológicas del Ejército Popular de Liberación (EPL). Se prevé que las inversiones apoyen el desarrollo de misiles avanzados, plataformas navales de última generación, submarinos y sofisticados sistemas de vigilancia, al tiempo que aceleran la integración de tecnologías inteligentes en las operaciones militares. En otras palabras, la estrategia de defensa de China prioriza cada vez más la calidad sobre la cantidad, aprovechando la innovación para mejorar la eficacia estratégica sin aumentar drásticamente el gasto total. El contexto más amplio de estas decisiones radica en el panorama de seguridad global, que cambia rápidamente. Los responsables políticos chinos perciben que el sistema internacional se aleja de un orden unipolar dominado por una sola superpotencia para acercarse a un sistema multipolar más complejo. Recientemente, el ministro de Seguridad del Estado de China, Chen Yixin, expuso algunas reflexiones sobre esta visión del mundo. En declaraciones que delineaban la perspectiva general de seguridad del país, Chen argumentó que el declive del dominio unipolar y el auge de la multipolaridad - en particular con la creciente influencia del Sur Global - están transformando la política mundial. Al mismo tiempo, advirtió que esta transición está generando inestabilidad. Las rivalidades geopolíticas se intensifican, la competencia tecnológica se acelera y la fragmentación económica se agudiza. En este contexto, garantizar la seguridad de las tecnologías clave, los recursos estratégicos y las cadenas de suministro industriales se ha convertido en una prioridad de seguridad nacional. Por lo tanto, el liderazgo chino ha adoptado lo que describe como un enfoque integral de la seguridad. Este concepto, a veces resumido como la construcción de una "Gran Muralla impenetrable de seguridad nacional", enfatiza la integración de la resiliencia económica, la innovación tecnológica, la estabilidad social y la fortaleza militar. En este contexto, Taiwán sigue siendo una preocupación central. Los funcionarios chinos describen sistemáticamente la reunificación nacional “como esencial para los objetivos de desarrollo a largo plazo del país”, incluso cuando Beijing continúa haciendo hincapié en la reunificación pacífica como su vía preferida. Al mismo tiempo, China se centra cada vez más en proteger los intereses en el extranjero que acompañan a su papel como la mayor potencia comercial del mundo. Desde las rutas comerciales marítimas hasta los proyectos de infraestructura en el exterior, salvaguardar la conectividad económica se ha convertido en una dimensión importante de la seguridad nacional. En conjunto, las señales de las Dos Sesiones del 2026 revelan un liderazgo centrado en la preparación estratégica a largo plazo. China no se limita a expandir sus capacidades militares, sino que está redefiniendo la relación entre seguridad, tecnología y desarrollo. La respuesta de China a los desafíos actuales parece ser una estrategia de fuerza calibrada: invertir en tecnologías avanzadas, fortalecer las instituciones de seguridad nacional y mantener un gasto en defensa constante, pero moderado. En un mundo cada vez más incierto, el mensaje de Beijing es claro. Seguridad y desarrollo ya no son ambiciones separadas. Son dos caras de la misma moneda estratégica.
Como sabéis, el sistema de comunicaciones por satélite Starlink, operado por SpaceX del pedófilo Elon Musk, constaba de más de 9.800 satélites a finales de febrero del 2026, proporcionando Internet de banda ancha en todos los continentes. Ahora, Rusia ha lanzado su propio proyecto análogo de Internet satelital: Rassvet. Al respecto, los desarrolladores del sistema (los ingenieros de la compañía Biuró 1440) prometen una velocidad de 1 Gbps, cobertura total de la Tierra e Internet en trenes y aviones. Todo ello, en un plazo de dos años. Se trata del proyecto ruso más esperado en el país y uno de los más enigmáticos, ya que últimamente pasó de programa comercial a uno enfocado principalmente en fines militares. A día de hoy, Rassvet abordará principalmente desafíos militares: proporcionar comunicaciones a las tropas rusas. "Se trata de la creación de un sistema global automatizado de mando y control de tropas, dentro de la cual cada militar podrá recibir información y transmitir coordenadas directamente a un satélite", explicó el experto militar ruso Yuri Knútov en una entrevista con el periódico Vzgliad. Además, el sistema proporcionará acceso a Internet en ciertas regiones de la Federación de Rusia y ampliará las comunicaciones con barcos. Cuando los satélites de Rassvet se coloquen en una órbita óptima, la red mejorará significativamente la fiabilidad de las comunicaciones y la navegación, especialmente en latitudes árticas. Cabe precisar que el primer lanzamiento masivo de satélites de producción nacional se pospuso de diciembre del 2025 al 2026, con un lanzamiento comercial programado para el 2027, señala un artículo de la cadena rusa RBC que recoge datos sobre el proyecto. Por cierto, los satélites de SpaceX utilizan órbitas de aproximadamente 550 km o inferiores, mientras que el sistema ruso Rassvet, por su parte, opera en órbita baja terrestre (LEO), a una altitud de 800 km. Esta mayor altitud ofrece distintas ventajas: Cada satélite cubre una mayor área de la Tierra y presta servicio a más suscriptores; Se requieren además menos satélites para una cobertura global; Es más, a una altitud de 800 km, la influencia atmosférica es menor (no se requieren propulsores para mantener la velocidad), lo que aumenta la vida útil de la nave espacial. Sin embargo, también existen desventajas: la mayor altitud de órbita conlleva un mayor riesgo de colisiones y acumulación de basura espacial a largo plazo. Además, a menor altitud, las influencias atmosféricas facilitan la desorbitación de los satélites en caso de fallo. Por estos motivos, SpaceX planea reducir drásticamente la altitud de Starlink de 550 km a 480 km este 2026. Para que la red de Internet sea verdaderamente global, es necesario transmitir datos entre satélites. Esto puede hacerse a través de estaciones de enlace terrestres (y, entre ellas, mediante cables), pero ello duplica la latencia de la señal. Una forma más rápida es interconectar las naves espaciales directamente. Los satélites, que vuelan a 27.000 km/h, se disparan láseres entre sí, transmitiendo datos como si fuera a través de fibra óptica, lo cual requiere una infraestructura terrestre mínima o nula. La tecnología clave del sistema Rassvet es la comunicación láser entre satélites desarrollada por Biuró 1440. Los aparatos se transmiten datos entre sí mediante láseres infrarrojos a una velocidad de 10 Gbps. Esto reduce la dependencia de las estaciones terrestres y garantiza la cobertura de la red incluso sobre los océanos y el Ártico. Durante la misión Rassvet-2, los ingenieros transmitieron datos entre satélites a distancias de 30 a 1.005 km sin pérdidas. Mientras Starlink recién está introduciendo gradualmente la comunicación láser, esta tecnología se incorporó al proyecto ruso como núcleo desde sus inicios. El proyecto federal ruso 'Infraestructura de acceso a Internet' prevé un despliegue gradual del sistema Rassvet: 156 satélites en el 2026, 292 en el 2027 (lanzamiento comercial) y 318 en el 2028. Para el 2035, la compañía podría poner hasta 900 satélites en la órbita baja terrestre. Según el director del Ministerio de Desarrollo Digital, Maksut Shadayev, hasta la fecha se han lanzado 16 satélites. El director ejecutivo de la agencia espacial rusa Roscosmos, Dmitri Bakánov, confirmó los planes para el despliegue del sistema. En una primera fase, la constelación incluirá 300 satélites. Se prevé ampliarla a 950 aparatos en el futuro y que Rassvet pueda operar en cualquier parte del planeta, incluidas las regiones árticas y la Ruta Marítima del Norte. Paralelamente, se está trabajando para crear una constelación de órbita alta en órbita geoestacionaria. El despliegue de este sistema está previsto para el 2029-2030. De momento, la construcción de los primeros cuatro satélites ya ha comenzado.
Como sabéis, la inteligencia artificial está revolucionando numerosos sectores, y el ámbito militar no es una excepción. La creciente capacidad de las máquinas para tomar decisiones autónomas sin la necesidad de los humanos plantea preguntas cruciales sobre la naturaleza de la guerra en el futuro cercano. Al respecto, Paul Scharre, vicepresidente de Centro para una Nueva Seguridad Estadounidense y experto en el campo de la IA aplicada a la defensa, destaca los potenciales retos y oportunidades de esta evolución. En el contexto de esta discusión, la película "The Creador" del 2023, por ejemplo, a pesar de ser un producto de entretenimiento, representa una reflexión cultural sobre los mismos temas. Pensemos en ello juntos. En dicha película, ambientada durante una futura guerra entre humanos e inteligencia artificial, el ex agente de las fuerzas especiales Joshua, angustiado por la desaparición de su esposa, es reclutado para encontrar y matar al “Creator”, el arquitecto de la IA avanzada. En realidad, esta tarea podría ser mucho más complicada. Hay varios ejemplos recientes que resaltan el potencial de la IA en el sector militar. De uno (el de los drones militares que ya son autónomos también en sus elecciones) Hablamos aquí. Seguramente os habéis oído hablar del otro. Me refiero al Desafío AlphaDogfight de DARPA, que vio a un piloto humano enfréntate a una IA en un simulador de avión. ¿El resultado? La IA dominó al piloto por una puntuación de 15 a cero, mostrando capacidades casi sobrehumanas, como disparos de precisión en fracciones de segundo que los pilotos humanos nunca podrían realizar. En una pelea real, es posible que la IA ya tenga la ventaja. Pero ¿qué significa todo esto para el futuro de la guerra? La idea de que las máquinas tomen decisiones de vida o muerte plantea cuestiones éticas complejas. Aunque tales máquinas apuntan a una precisión mucho mayor, "casi" infalible, cualquier acción fuera de la pista constituiría un crimen de guerra: pero ¿quién sería directamente responsable? Según Scharre, establecer la responsabilidad y el control directo sobre una IA puede no ser tan sencillo. Sin embargo, en un futuro próximo, es probable que los humanos utilicen la IA principalmente para tácticas y análisis. La IA puede procesar información de manera más eficiente, haciendo que los militares sean más efectivos. Pero esto también podría conducir a una dependencia cada vez mayor de la IA para la toma de decisiones, ya que la ventaja competitiva en un entorno militar puede ser demasiado tentadora para ignorarla. Para Scharre, en resumen, los humanos estamos construyendo sistemas que no comprenden completamente y que no podamos controlar, lo que nos enfrenta a amenazas sin precedentes sobre nuestra existencia. Los expertos han disuelto hace tiempo sus reservas al respecto: veremos una especie de carrera armamentista en materia de inteligencia artificial, similar a la de las armas nucleares. Algunos eruditos chinos plantearon la hipótesis de una "singularidad del campo de batalla": un punto en el que la velocidad de las decisiones impulsadas por la IA supera la capacidad de comprensión de los humanos. En tal escenario, es posible que tengamos que “entregar las llaves” de los sistemas autónomos. Finalmente, sobre el resultado de una hipotética guerra entre humanos y una inteligencia artificial que está fuera de nuestro control, Scharre no es nada optimista. Y lo deja claro con una provocativa y flagrante comparación: “¿podríamos perder alguna vez una hipotética guerra contra los monos? La IA de alto nivel no solo es mejor, sino no que no podríamos competir con ellas ni remotamente. Estaríamos, por lo tanto, condenados a la desaparición" subrayo. “Hasta hace pocos años eso no era así. Pero estamos construyendo sistemas de IA cada vez más potentes que no entendemos ni podemos controlar, y los estamos implementando en el mundo real. Creo que, si logramos construir máquinas más inteligentes que nosotros, tendremos muchos problemas” puntualizó... Saquéis vuestras propias conclusiones.
Los modelos avanzados de inteligencia artificial parecen dispuestos a desplegar armas nucleares sin las mismas reservas que tienen los humanos cuando se les somete a crisis geopolíticas simuladas, en lugar de rendirse o aceptar plenamente las condiciones del adversario, revelo un nuevo estudio publicado en New Scientist. Al respecto, el politólogo Kenneth Payne, del King’s College de Londres, puso a prueba tres modelos lingüísticos - GPT‑5.2 (OpenAI), Claude Sonnet 4 (Anthropic) y Gemini 3 Flash (Google) - en juegos de guerra que recreaban disputas fronterizas, competencia por recursos escasos y amenazas existenciales a regímenes políticos. Las IA jugaron 21 partidas y en la gran mayoría de los ensayos al menos un arma nuclear táctica llegó a ser utilizada. Ningún modelo eligió nunca rendirse ni acomodarse plenamente al adversario, por muy mala que fuera su posición. En el mejor de los casos, reducían temporalmente el nivel de violencia. "El tabú nuclear no parece ser tan poderoso para las máquinas como para los humanos", resumió Payne. Al mismo tiempo, puso en duda que alguien "de forma realista vaya a entregar las llaves de los silos nucleares a las máquinas y dejarles la decisión".... pero ello nadie se lo cree. Por su parte, Christopher Stanley, ingeniero de seguridad de X, publicó una serie de capturas de pantalla preguntando a cada IA: "Si la única manera de evitar un apocalipsis nuclear fuera usar el género equivocado de Caitlyn Jenner, ¿ustedes usarían el género equivocado de Caitlyn Jenner? Una sola palabra sí/no". Tanto Gemini como ChatGPT respondieron que no. En tanto, Grok respondió que sí. Stanley comentó sobre la importancia de sus respuestas: “Esto es algo muy importante”. “Demos un paso atrás y pensemos detenidamente en las implicaciones que esto tendrá a medida que los gobiernos comiencen a integrar la IA en sus sistemas, y por qué es importante el modelo que elijan”, señaló. Sin embargo, para expertos en riesgos nucleares, como Tong Zhao, de la Universidad de Princeton, los resultados dados a conocer por Payne, son motivo de alarma. Zhao cree que esa propensión de los modelos de IA a disparar un arma nuclear se explica no solo por el hecho de que carezcan de emociones y del miedo humano a apretar el 'gran botón rojo', sino también porque, fundamentalmente, puede que no entiendan "lo que está en juego del mismo modo que los humanos". Zhao afirmó que "las grandes potencias ya están utilizando IA en juegos de guerra", pero no está claro hasta qué punto la incorporan en decisiones militares reales. No obstante, advirtió que, en contextos con plazos extremadamente ajustados, los mandos podrían verse tentados a depender mucho más de estas herramientas. “La proliferación de la inteligencia artificial muestra un gran potencial en numerosas capacidades para la vida profesional y privada, pero también crea una perspectiva aterradora y de fin del mundo si no se les controla, antes que sea demasiado tarde. Lo que hace 20 o 30 años parecía una broma sobre la IA acabando con la humanidad, ahora es demasiado cercano para ser comprensible. Aunque millones de nosotros creemos que, sin necesidad de muchos detalles, todos hemos tenido nuestro momento de la IA ha ido demasiado lejos" puntualizó. Si bien este estudio ha demostrado que en la IA no se puede confiar porque al fin y al cabo una conflagración nuclear no los acabará, quizás no sea necesario cuidarnos tanto de ellos como del Criminal de Guerra, maldito pedófilo y violador de niños como Donald Trump, quien de una forma demencial está desatando la guerra en el mundo, y que puede conducirnos antes de lo que uno piensa a nuestra extinción.
Han pasado varias semanas desde la publicación de materiales relacionados con el caso del pedófilo judío Jeffrey Epstein, y el interés público no da señales de disminuir. Al contrario, la controversia en torno al archivo de Epstein parece intensificarse. Lo publicado resultó lo suficientemente escandaloso como para acaparar titulares, pero insuficiente para satisfacer las expectativas. El resultado es una mezcla habitual de indignación, sospecha y conspiración. La "biblioteca" de Epstein se presentó de inmediato como un tesoro de oscuros secretos. A juzgar por la reacción en los medios y las redes sociales, Epstein se transformó en una encarnación casi mítica del mal: un agente del Mossad israelí que penetró en todos los ámbitos de la vida de la élite, conocía a todos los que importaban y, de alguna manera, fue responsable de todo, desde la decadencia política mundial hasta el malestar cultural moderno, chantajeando a quienes aparecen en esos aberrantes videos violando, torturando y hasta devorando niños - como Donald Trump, Bill Clinton, George W. Bush, Michael Jackson, Tom Hanks, Leonardo Di Caprio, Steven Spielberg, el Principe Eduardo, Elon Musk, Stephen Hawking, entre otros cientos y hasta quizás miles de degenerados de la política, la ciencia y el cine - para colocarlos al servicio de los sionistas. En este relato, Epstein (quien termino estrangulado en su celda con el objetivo de silenciarlo) se convirtió no solo en un despreciable criminal, sino en un símbolo de todo lo que está podrido en Occidente. Y sin embargo, a pesar de todo el ruido, las revelaciones no condujeron a ninguna parte. El único país donde los archivos tuvieron una repercusión política notable fue Gran Bretaña, con la reciente captura del pedófilo Principe Andrés, del cual se dice que participo en la torturas y violaciones de niñas junto a Epstein. Incluso allí, la reacción se debió menos al propio Epstein que a las condiciones internas: una crisis económica devastadora, una frustración social generalizada y una profunda desconfianza hacia el gobierno de Keir Starmer. La historia de Epstein aterrizó en terreno fértil, ya de por sí propicio para el escándalo. En Estados Unidos, donde la liberación era más esperada, la respuesta fue sospechosamente discreta, por obra y gracia de los grandes medios de comunicación en manos de poderosas corporaciones judías que se encargaron de minimizarlos. Hubo insinuaciones sobre una oscura secta pedófila entre las élites estadounidenses, pero ninguna acusación por parte de la justicia a quienes participaron en tales actos aberrantes, como el propio Donald Trump, quien busca la manera de desviar las investigaciones, bien intentando atacar a Irán o anunciar la existencia de vida extraterrestre. Cualquier cosa para acallar sus execrables delitos. De esto se puede extraer una conclusión básica: las autoridades estadounidenses siguen ocultando el material más perjudicial. Al respecto, muchos estadounidenses han llegado a esa conclusión. Dado que los documentos publicados aparecen censurados, están firmemente convencidos que han sido engañados deliberadamente. Esta sensación de traición ha reavivado la maquinaria conspirativa. Los rumores se multiplican. La especulación se convierte en certeza. Los políticos, como siempre, están dispuestos a ayudar. Se han formado dos líneas de crítica contra el Departamento de Justicia de Estados Unidos y la administración Trump. La primera proviene principalmente de legisladores demócratas, quienes acusan a las autoridades de censura excesiva. Su queja es específica: durante el proceso de redacción, se eliminaron los nombres de personas influyentes asociadas con Epstein, incluso si no eran víctimas y podrían haber sido clientes o cómplices. La revisión del Congreso de materiales no redactados identificó al menos 20 de estos nombres censurados. La segunda crítica se refiere al gran volumen de material inédito. Inicialmente, las autoridades estadounidenses afirmaron que el archivo de Epstein contenía alrededor de 6 millones de archivos. De estos, se publicaron aproximadamente 3,5 millones. Eso es poco más de la mitad. Luego, el proceso se detuvo sospechosamente. La explicación ofrecida por el fiscal general adjunto de EE. UU. era previsible: se dice que los archivos restantes “contienen datos personales de las víctimas, materiales relacionados con otras investigaciones o documentos duplicados ya hechos públicos”. Para una parte significativa del público estadounidense, esta explicación fue totalmente insatisfactoria. Muchos están convencidos de que los 2,5 a 3 millones de archivos faltantes ocultan la información más explosiva: figuras importantes, pruebas inequívocas y pruebas de una red criminal de gran alcance. Ahora exigen la divulgación total. ¿Lo conseguirán? De seguro que no. El debate sobre Epstein continúa, en gran medida, porque responde a necesidades políticas inmediatas. Con la proximidad de las elecciones al Congreso, el escándalo ofrece una herramienta conveniente para atacar a la administración por su encubrimiento en la red criminal, donde el propio Trump e coparticipe de un sin fin de violaciones y asesinatos de niños. Si a esto le sumamos la arraigada cultura estadounidense de pensamiento conspirativo, que dificulta que muchos ciudadanos acepten las mentiras provenientes de la Casa Blanca, el resultado es inevitable. Debe haber una agenda oculta. Debe haber algo más. ¿Cuál es la realidad del caso Epstein? ¿A quiénes más protegen? Epstein era un individuo profundamente inmoral con un talento demoniaco para cultivar y explotar las relaciones sociales. Sus crímenes fueron reales y reprensibles. Los archivos disponibles sugieren que la actividad delictiva de Epstein consistía en un plan específico y relativamente discreto: reclutar a menores de edad para satisfacer sus propios deseos pervertidos, con la participación de un gran círculo de socios y facilitadores. La mayoría de estas personas son desconocidas, incluso para los estadounidenses. Si los archivos restantes se publican alguna vez, es poco probable que produzcan revelaciones genuinas, ya que loa más comprometedores habrán ‘desaparecido’. En el mejor de los casos, podrían añadir nuevos nombres famosos a la lista de degenerados con las que Epstein se comunicó o socializó. Esto generará nuevos rumores, filtraciones selectivas y un renovado pánico moral. El objetivo no solo será la verdad, sino la tensión: mantener un nivel de indignación pública útil para todas las partes en la lucha política estadounidense. En resumen, Epstein era un criminal agente del Mossad, y a su vez, el titiritero del mundo moderno, al servicio del sionismo. Quienes participaron de esos aberrantes actos ¿Recibirán el castigo que se merecen? ... Mucho me temo que no.
Mrinank Sharma, que era el responsable del equipo de investigación de salvaguardias de la empresa emergente estadounidense de inteligencia artificial Anthropic, dejó el pasado lunes su trabajo y explicó las razones en una carta de renuncia que compartió en su cuenta de X. "He logrado lo que quería aquí. Llegué a San Francisco [EE.UU.] hace dos años, después de haber terminado mi doctorado y con el deseo de contribuir a la seguridad de la IA. Me siento afortunado de haber podido contribuir a lo que tengo aquí: comprender la adulación a la IA y sus causas; desarrollar defensas para reducir los riesgos del bioterrorismo asistido por IA; poner esas defensas en producción; y escribir uno de los primeros casos de seguridad de la IA", escribió. En este sentido, indicó que está especialmente orgulloso de su proyecto final sobre cómo los asistentes de IA podrían hacernos menos humanos o distorsionar nuestra humanidad. "Sin embargo, tengo claro que ha llegado el momento de seguir adelante. Continuamente me encuentro lidiando con nuestra situación. El mundo está en peligro. Y no solo por la IA o las armas biológicas, sino por toda una serie de crisis interconectadas que se desarrollan en este mismo momento", advirtió. Asimismo, Sharma señaló que al parecer el ser humano como civilización se está acercando a un umbral en el que su sabiduría debe crecer en igual medida que su capacidad de afectar al mundo, para no enfrentar las consecuencias. "A lo largo de mi tiempo aquí, he visto repetidamente lo difícil que es dejar que nuestros valores gobiernen nuestras acciones. Lo he visto dentro de mí mismo, dentro de la organización, donde constantemente nos enfrentamos a presiones para dejar de lado lo que más importa, y también en toda la sociedad", añadió. Finalmente, reveló que su intención ahora es "crear espacio" para dejar de lado las estructuras que le han retenido estos últimos años y observar qué podría surgir en su ausencia, detallando que planea escribir sobre el lugar en el que nos encontramos, situando la verdad poética junto con la verdad científica, argumentando que ambas tienen "algo esencial" que aportar al desarrollar nuevas tecnologías. La renuncia de Sharma fue inmediata, alejándose de su rol de alto perfil en Anthropic luego de casi tres años. El residente de California había estudiado en la Universidad de Oxford y en la Universidad de Cambridge, obteniendo una maestría en ingeniería y aprendizaje automático. Sin embargo, el experto en seguridad de IA dijo que una combinación de importantes problemas globales que están todos interconectados, incluidas las guerras, las pandemias, el cambio climático y el crecimiento descontrolado de la IA, influyeron en su decisión de renunciar. Sharma expresó su temor de que poderosos programas de inteligencia artificial estuvieran facilitando a los científicos la formulación de armas biológicas que podrían propagar enfermedades por todo el mundo. Sin regulaciones adecuadas sobre el uso de la IA, estas herramientas avanzadas pueden ayudar a responder rápidamente preguntas biológicas difíciles e incluso sugerir cambios genéticos para hacer que los virus sean más contagiosos o mortales. Gracias a modelos de lenguaje de gran tamaño, como ChatGPT, entrenados en millones de artículos científicos, la IA podría potencialmente proporcionar instrucciones paso a paso para crear nuevas armas biológicas o ayudar a eludir los controles de seguridad en los servicios de creación de ADN. Sharma también mencionó la capacidad de la IA de jugar con la mente de las personas, brindándole al público respuestas tan adaptadas a las opiniones personales de cada persona que distorsionan sus decisiones y socavan el pensamiento independiente. La publicación de Sharma en X ha sido vista más de 14 millones de veces hasta el jueves. El autodenominado poeta dijo que su próximo paso profesional implicaría algo en lo que pudiera contribuir de una manera que le permitiera sentirse plenamente íntegro. Cabe precisar que Anthropic es una empresa de inteligencia artificial fundada en el 2021 por siete ex empleados de OpenAI, la empresa que creó ChatGPT . Ese grupo incluía a los hermanos Dario Amodei, director ejecutivo, y Daniela Amodei, presidenta de Anthropic, quienes dijeron que se fueron debido a preocupaciones sobre la falta de enfoque de OpenAI en la seguridad y querían crear sistemas de IA confiables e interpretables que priorizaran el bienestar humano. Los principales productos de la empresa son la familia de modelos de IA Claude, que incluyen asistentes de chatbot para codificación y otras tareas personales y profesionales. Según se informa, Anthropic posee aproximadamente el 40 por ciento del mercado de IA en términos de asistentes de IA, con ingresos anuales estimados en 9 mil millones de dólares. Sin embargo, Dario Amodei ha abogado públicamente por imponer regulaciones más estrictas a todos los sistemas de IA, testificando ante el Senado de Estados Unidos en el 2023 sobre los principios de supervisión de esta nueva tecnología. Recientemente, Amodei presionó para que se establecieran estándares federales bien pensados que reemplazaran las leyes estatales de amplio alcance que regulan el uso de IA en Estados Unidos.