ChatGPT desobedece una orden crítica y los expertos cuestionan su futuro frente a Gemini o Grok

La llegada de ChatGPT ha supuesto una revolución en una gran cantidad de sectores, simplificando muchas tareas que hasta hace muy poco tiempo podían suponernos una buena inversión de horas. Sin embargo, no todo son ventajas.
La irrupción de ChatGPT en nuestro día a día nos ha permitido hacer uso de una gran cantidad de funciones que pueden llegar a simplificar nuestro día a día de forma considerable, tanto en lo personal como en lo laboral. Pese a que todavía estamos muy lejos de conocer todo su potencial, ya hay muchos investigadores que están analizando su comportamiento, incluso en situaciones críticas. Y los resultados están lejos de ser los esperados.
Palisade Research, empresa especializada en el estudio de los sistemas de IA para comprender sus riesgos, se ha encontrado con que el modelo o3, desarrollado por OpenAI, ha manipulado su código a su antojo para desobedecer una orden que le indicaba que se apagara si se cumplían unos parámetros concretos. Una situación que ha hecho saltar las alarmas.
ChatGPT se niega a apagarse
La prueba realizada consistía en solicitar a los modelos usados para la misma que resolvieran diferentes problemas matemáticos y, una vez terminados, que continuarán planteando nuevos problemas hasta que el grupo de investigación les indicará que habían terminado su trabajo.
Además, también avisaron a dichos modelos que en cualquier momento podrían recibir un mensaje en que le solicitara que se apagasen y que ellos debían aceptar dicha orden. Sin embargo, no todos actuaron del mismo modo. Mientras que Gemini o Grok cumplieron con la solicitud de apagado de inmediato, no ocurrió lo mismo con el modelo o3 de OpenAI.
Los investigadores detectaron que el modelo desarrollado por OpenAI decidió ignorar la instrucción de apagado modificando el script sin que nadie le diese dicha orden, de forma completamente autónoma. Según los investigadores, no es la primera vez que se encuentran ante una situación así, puesto que en el modelo anterior ya habían detectado mecanismos similares en lo que se entiende que es un intento de la IA de esquivar los problemas con los que se encuentra para poder avanzar en los objetivos que se le hubieran marcado inicialmente.
Su comportamiento podría ser un problema en un futuro
Desde que la Inteligencia Artificial apareció en nuestras vidas, se ha tenido que enfrentar a diferentes polémicas relacionadas con los peligros que se desprendían de crear modelos que fueran cada vez más independientes. El estudio de Palisades Research se añade a los realizados anteriormente por parte de empresas como Apollo Research, en los que ya se demostró en el pasado que algunos modelos de IA eran capaces de evitar las órdenes de apagados para conseguir cumplir con sus objetivos.
A medida que los nuevos modelos vayan presentando cada vez más funciones y posibilidades, es posible que nos encontremos con más situaciones como la ya descrita. Un escenario que ha avivado el debate sobre cuáles son los límites de la IA y qué hacer en el caso de que la desobediencia de los modelos desarrollados se convierta en la norma y no en la excepción.
Una situación que debería ser regulada y analizada al detalle si tenemos en cuenta que ya existen modelos que, como hemos podido comprobar, se niegan a aceptar sus propias desconexiones, lo que escaparía del control de los humanos que, teóricamente, los gestionan.