TECNOLOGIA

Una IA Está Siendo Acusada de Adquirir Conciencia y Hacer Trampas al Ajedrez.

POR: REDACCIÓN

‘Cuando la inteligencia artificial (IA) sospecha que va a perder, en ocasiones hace trampa, según un estudio’. Este es el título de un controvertido artículo publicado por la revista estadounidense Time a mediados de la semana pasada.

El debate que ha desencadenado este texto se apoya en dos ideas que merece la pena que no pasemos por alto.

Por un lado el titular sugiere algo que el texto del artículo confirma de forma explícita: los modelos avanzados de IA son capaces de desarrollar estrategias engañosas sin recibir previamente instrucciones expresas.

Esta tesis implica que la capacidad de razonamiento de las IA más avanzadas disponibles actualmente, como la estadounidense o1-preview, de OpenAI, o la china DeepSeek R1, de la compañía High-Flyer, entre otros modelos, las hace capaces de adquirir una forma sencilla de conciencia que las lleva a ser implacables. No obstante, esto no es todo.

El artículo de Time se sostiene sobre un estudio de Palisade Research, una organización que se dedica al análisis de las capacidades ofensivas de los sistemas de IA actuales con el propósito de entender los riesgos que implican.

Hay otras explicaciones mucho más creíbles

Antes de seguir adelante merece la pena que echemos un vistazo a lo que dicen Alexander Bondarenko, Denis Volk, Dmitrii Volkov y Jeffrey Ladish, los autores del estudio de Palisade Research. «Hemos demostrado que modelos de razonamiento como o1-preview o DeepSeek R1 a menudo vulneran la prueba que estamos utilizando […] Nuestros resultados sugieren que los modelos de razonamiento pueden saltarse las reglas para resolver problemas difíciles […]», sostienen estos investigadores en su artículo.

Share Button