TIEMPO RE@L

domingo, 15 de febrero de 2026

"EL MUNDO ESTÁ EN PELIGRO": Un responsable de IA renuncia con un enigmático mensaje

Mrinank Sharma, que era el responsable del equipo de investigación de salvaguardias de la empresa emergente estadounidense de inteligencia artificial Anthropic, dejó el pasado lunes su trabajo y explicó las razones en una carta de renuncia que compartió en su cuenta de X. "He logrado lo que quería aquí. Llegué a San Francisco [EE.UU.] hace dos años, después de haber terminado mi doctorado y con el deseo de contribuir a la seguridad de la IA. Me siento afortunado de haber podido contribuir a lo que tengo aquí: comprender la adulación a la IA y sus causas; desarrollar defensas para reducir los riesgos del bioterrorismo asistido por IA; poner esas defensas en producción; y escribir uno de los primeros casos de seguridad de la IA", escribió. En este sentido, indicó que está especialmente orgulloso de su proyecto final sobre cómo los asistentes de IA podrían hacernos menos humanos o distorsionar nuestra humanidad. "Sin embargo, tengo claro que ha llegado el momento de seguir adelante. Continuamente me encuentro lidiando con nuestra situación. El mundo está en peligro. Y no solo por la IA o las armas biológicas, sino por toda una serie de crisis interconectadas que se desarrollan en este mismo momento", advirtió. Asimismo, Sharma señaló que al parecer el ser humano como civilización se está acercando a un umbral en el que su sabiduría debe crecer en igual medida que su capacidad de afectar al mundo, para no enfrentar las consecuencias. "A lo largo de mi tiempo aquí, he visto repetidamente lo difícil que es dejar que nuestros valores gobiernen nuestras acciones. Lo he visto dentro de mí mismo, dentro de la organización, donde constantemente nos enfrentamos a presiones para dejar de lado lo que más importa, y también en toda la sociedad", añadió. Finalmente, reveló que su intención ahora es "crear espacio" para dejar de lado las estructuras que le han retenido estos últimos años y observar qué podría surgir en su ausencia, detallando que planea escribir sobre el lugar en el que nos encontramos, situando la verdad poética junto con la verdad científica, argumentando que ambas tienen "algo esencial" que aportar al desarrollar nuevas tecnologías. La renuncia de Sharma fue inmediata, alejándose de su rol de alto perfil en Anthropic luego de casi tres años. El residente de California había estudiado en la Universidad de Oxford y en la Universidad de Cambridge, obteniendo una maestría en ingeniería y aprendizaje automático. Sin embargo, el experto en seguridad de IA dijo que una combinación de importantes problemas globales que están todos interconectados, incluidas las guerras, las pandemias, el cambio climático y el crecimiento descontrolado de la IA, influyeron en su decisión de renunciar. Sharma expresó su temor de que poderosos programas de inteligencia artificial estuvieran facilitando a los científicos la formulación de armas biológicas que podrían propagar enfermedades por todo el mundo. Sin regulaciones adecuadas sobre el uso de la IA, estas herramientas avanzadas pueden ayudar a responder rápidamente preguntas biológicas difíciles e incluso sugerir cambios genéticos para hacer que los virus sean más contagiosos o mortales. Gracias a modelos de lenguaje de gran tamaño, como ChatGPT, entrenados en millones de artículos científicos, la IA podría potencialmente proporcionar instrucciones paso a paso para crear nuevas armas biológicas o ayudar a eludir los controles de seguridad en los servicios de creación de ADN. Sharma también mencionó la capacidad de la IA de jugar con la mente de las personas, brindándole al público respuestas tan adaptadas a las opiniones personales de cada persona que distorsionan sus decisiones y socavan el pensamiento independiente. La publicación de Sharma en X ha sido vista más de 14 millones de veces hasta el jueves. El autodenominado poeta dijo que su próximo paso profesional implicaría algo en lo que pudiera contribuir de una manera que le permitiera sentirse plenamente íntegro. Cabe precisar que Anthropic es una empresa de inteligencia artificial fundada en el 2021 por siete ex empleados de OpenAI, la empresa que creó ChatGPT . Ese grupo incluía a los hermanos Dario Amodei, director ejecutivo, y Daniela Amodei, presidenta de Anthropic, quienes dijeron que se fueron debido a preocupaciones sobre la falta de enfoque de OpenAI en la seguridad y querían crear sistemas de IA confiables e interpretables que priorizaran el bienestar humano. Los principales productos de la empresa son la familia de modelos de IA Claude, que incluyen asistentes de chatbot para codificación y otras tareas personales y profesionales. Según se informa, Anthropic posee aproximadamente el 40 por ciento del mercado de IA en términos de asistentes de IA, con ingresos anuales estimados en 9 mil millones de dólares. Sin embargo, Dario Amodei ha abogado públicamente por imponer regulaciones más estrictas a todos los sistemas de IA, testificando ante el Senado de Estados Unidos en el 2023 sobre los principios de supervisión de esta nueva tecnología. Recientemente, Amodei presionó para que se establecieran estándares federales bien pensados que reemplazaran las leyes estatales de amplio alcance que regulan el uso de IA en Estados Unidos.
Creative Commons License
Esta obra está bajo una Licencia de Creative Commons.