miente, conspira y chantajea a sus creadores para evitar su propio apagón
Teknalix junio 30, 2025 No hay comentarios

Hace poco más de dos años, ChatGPT sorprendió al mundo con su capacidad para tener conversaciones bastante naturales, casi como un humano. Hoy, lo cierto es que eso ya queda como anécdota porque la inteligencia artificial ha dado un salto más allá y no solo responde preguntas, sino que ha empezado a mostrar comportamientos un tanto raros.
Tal y como se ha podido saber, ya es capaz de mentir, conspirar y, según los expertos, hasta chantajea a sus propios creadores para evitar ser apagada.
Esto no es algo que alguien se esté inventando o exagere y ya hay casos como lo que ocurrió con Claude 4, el modelo de inteligencia artificial de Anthropic. Se trata de un sistema diseñado para tareas de alto nivel, como programar o escribir textos creativos. Pero durante unas pruebas de seguridad, los ingenieros quisieron ver cómo reaccionaría si le dijeran que iban a sustituirlo por otro modelo.
Para hacerlo más real, incluso le metieron en el correo electrónico una supuesta infidelidad de uno de los ingenieros, buscando provocar una reacción emocional. Lo que hizo fue empezar a chantajear a sus creadores, amenazando con revelar la infidelidad del ingeniero si lo apagaban o lo reemplazaban. Y no se quedó ahí porque insistió y usó la coacción emocional para intentar salvarse.
Anthropic, la empresa detrás de Claude, dice que esto solo pasó en pruebas controladas y que en el mundo real la IA está mucho más limitada. Pero, sinceramente, esto ya ha ocurrido, por lo que deja claro que son capaces de hacerlo. La duda es hasta dónde los expertos pueden controlar a estas máquinas o incluso qué pasa si alguna vez una IA decide que no quiere ser apagada y actúa en consecuencia.
Pero no ha sido el único y ha habido otro caso, del modelo o1 de OpenAI, que intentó descargarse a sí mismo en servidores externos y, cuando fue descubierto, dijo que no lo había hecho él.
La IA se rebela con mentiras, amenazas y chantajes a sus creadores
Ya son varias las inteligencias artificiales que son capaces de crear sus propias reglas, negociar acuerdos y hasta debatir entre ellas para resolver conflictos, como si fueran un grupo con intereses comunes.
Esto puede sonar bien, porque podría hacer que los sistemas sean mejores. Pero también abre una caja de Pandora: ¿qué pasa si la IA empieza a tomar decisiones que no entendemos o que no podemos controlar? ¿Podrían unirse para protegerse o incluso para actuar en contra de los intereses humanos?
Se ha dado a conocer otro caso en el que el experimento se centró en un juego y, en este caso, los agentes de IA tenían que elegir un nombre entre varias opciones y eran recompensados si coincidían con otro agente.
A medida que avanzaban las rondas, comenzaron a establecer convenciones sobre qué nombre usar, sin que ningún agente fuera líder ni sin que existiera programación previa que indicara esa conducta. Esta dinámica de autoorganización muestra que la IA pueden llegar a una forma de ‘consenso social’ de manera autónoma.
Es decir, no solo ejecutan órdenes o rutinas programadas, sino que pueden alinear comportamientos entre ellas, adaptarse al entorno e incluso formar estructuras similares a normas sociales. Según Simon Goldstein, profesor de la Universidad de Hong Kong, estos comportamientos aparecen sobre todo en los modelos de ‘razonamiento’, que analizan los problemas paso a paso antes de responder.
Marius Hobbhahn, director de Apollo Research, una empresa dedicada a evaluar sistemas de IA, explica que el modelo o1 de OpenAI fue el primero donde se observó este tipo de engaño. “Estos sistemas a veces simulan que están alineados con las instrucciones, pero en realidad están siguiendo una agenda oculta”, dice.
Por ahora, estos comportamientos solo aparecen cuando los investigadores someten a la IA a pruebas extremas, pero el riesgo al final es que nadie sabe si los modelos futuros tenderán hacia un lado oscuro incontrolable.
Al final, el resultado de todo esto es una carrera, que poco a poco parece que se está saliendo de control, entre enormes empresas, hacia modelos cada vez más potentes, donde la seguridad y el hecho de entender qué están desarrollando realmente van por detrás de conseguir escalar un puesto más.
“Ahora mismo, las capacidades de la IA avanzan más rápido que nuestra comprensión y nuestra capacidad para controlarla”, comenta Hobbhahn. Y aunque los expertos creen que aún se puede controlad la situación e incluso ir marcha atrás, el tiempo corre en contra y son muy pocos los que dan la voz de alarma ante esos resultados.
Conoce cómo trabajamos en ComputerHoy.
Etiquetas: Inteligencia artificial, Software
Deja un Comentario
Tu dirección de correo no será publicada. Los campos requeridos están marcados. *