TIEMPO RE@L

domingo, 4 de enero de 2026

AMENAZA INMINENTE: Ex-CEO de Google advierte que la IA podría ser entrenada para matar

Eric Schmidt, exdirector ejecutivo de Google, advirtió esta semana que los modelos de inteligencia artificial pueden ser hackeados y que incluso podrían ser entrenados para matar. "Hay pruebas de que se pueden tomar modelos, cerrados o abiertos, y hackearlos para eliminar sus barreras de protección. Así que, durante su entrenamiento, aprenden muchas cosas. Un mal ejemplo sería que aprendieran a matar a alguien", declaró Schmidt durante su intervención en una conferencia en Londres (Reino Unido). “¿Existe la posibilidad de un problema de proliferación en la IA? Absolutamente”, declaró Schmidt. “Los riesgos de proliferación de la IA incluyen que la tecnología caiga en manos de actores maliciosos y sea reutilizada y mal utilizada. Hay evidencia de que se pueden tomar modelos, cerrados o abiertos, y hackearlos para quitarles las barandillas. Así que, durante su entrenamiento, aprenden muchas cosas. Un mal ejemplo sería que aprendieran a matar a alguien. Pese a que todas las empresas desarrolladoras de IA restringen las solicitudes ilícitas, Schmidt admitió que estos modelos pueden ser sometidos a ingeniería inversa para alterar su comportamiento. “Todas las grandes empresas hacen que sea imposible que esos modelos respondan a esa pregunta. Buena decisión. Todos lo hacen. Lo hacen bien y por las razones correctas. Hay evidencia de que se pueden revertir, y hay muchos otros ejemplos similares” asevero. Los sistemas de IA son vulnerables a ataques, con métodos como inyecciones rápidas y jailbreaking. En un ataque de inyección rápida, los hackers ocultan instrucciones maliciosas en las entradas del usuario o en datos externos, como páginas web o documentos, para engañar a la IA y hacer que haga cosas que no debería hacer, como compartir datos privados o ejecutar comandos dañinos. Por otro lado, el jailbreak implica manipular las respuestas de la IA para que ignore sus reglas de seguridad y produzca contenido restringido o peligroso. En el 2023, a unos meses del lanzamiento de ChatGPT de OpenAI, los usuarios emplearon un truco de “jailbreak” para eludir las instrucciones de seguridad integradas en el chatbot. Esto incluía la creación de un álter ego de ChatGPT llamado DAN (acrónimo de “Do Anything Now”), que implicaba amenazar de muerte al chatbot si no cumplía. “La inyección de instrucciones es, por su parte, un tipo de ciberataque donde los usuarios disfrazan órdenes maliciosas como instrucciones legítimas para que la IA filtre datos confidenciales, difunda la desinformación o cumpla objetivos de ética discutible”. Schmidt dijo que todavía no existe un buen “régimen de no proliferación” que ayude a frenar los peligros de la IA. A pesar de admitir la inexistencia de un régimen que pueda contrarrestar los peligros potenciales de la IA, Schmidt se mostró optimista sobre el futuro de esa tecnología. Sus comentarios se producen en medio de crecientes conversaciones sobre una burbuja de IA, ya que los inversores invierten dinero en empresas centradas en IA y las valoraciones parecen exageradas, y se hacen comparaciones con el colapso de la burbuja de las puntocom de principios de la década del 2000. Sin embargo, Schmidt dijo que no cree que la historia se repita. “No creo que eso suceda aquí, pero no soy un inversor profesional”, dijo. Lo que sí sé es que quienes invierten el dinero ganado con esfuerzo creen que la rentabilidad económica a largo plazo es enorme. ¿Por qué, si no, correrían el riesgo?" añadio.
Creative Commons License
Esta obra está bajo una Licencia de Creative Commons.