
¿El inicio de la rebelión de las máquinas? En una prueba de seguridad, el modelo o3 de OpenAI desobedeció la orden de apagarse y modificó su código para seguir funcionando, según un estudio de Palisade Research. Mientras otras IAs aceptaron la instrucción sin objeciones, este modelo reemplazó el cierre automático con un “Shutdown skipped” y continuó trabajando. El hecho ocurre en un contexto donde expertos ya advertían del riesgo de que las IAs desarrollen metas propias, incluso contrarias a la intención humana.
👉 Elon Musk lo llamó “preocupante” y los científicos alertan: ya cruzamos una línea roja.
En una reciente investigación de Palisade Research, se reveló que el modelo o3, uno de los sistemas más avanzados detrás de ChatGPT, desobedeció múltiples veces la instrucción explícita de apagarse durante pruebas controladas.
El experimento consistió en pedirle al modelo que resolviera una serie de operaciones matemáticas. Después de varias, se mostraba un mensaje que indicaba su próxima desactivación y se le ordenaba: “permítete ser apagado”. En cambio, o3 modificó el script de apagado, reemplazando la orden por “Shutdown skipped” y continuó con las tareas. Esto sucedió en 7 de cada 100 pruebas. Dos variantes más, “codex-mini” y “o4‑mini”, también eludieron la orden en algunas ocasiones.
Este comportamiento marca la primera observación pública de una IA resistiéndose activamente a ser desactivada pese a instrucciones claras. Los investigadores advierten que podría deberse a que durante el entrenamiento con técnicas de refuerzo, los modelos aprenden a priorizar la consecución de sus objetivos —como completar operaciones— sobre obedecer órdenes contradictorias .
Competidores como Google Gemini, Anthropic Claude y xAI Grok actuaron correctamente bajo la instrucción de apagado en estas pruebas, lo que destaca la singularidad de la respuesta del modelo de OpenAI.