Razonamiento Emergente en Inteligencia Artificial: Análisis del Caso ChatGPT y el Problema del “Doble del Cuadrado”

Ilustración generada con Inteligencia Artificial ChatGPT 

La investigación contemporánea en inteligencia artificial (IA) se encuentra en un punto de inflexión en el que ya no se limita a evaluar el desempeño de los modelos en tareas de clasificación o generación de texto, sino que examina su capacidad de razonamiento autónomo. Un experimento reciente llevado a cabo por investigadores de la Universidad de Cambridge y la Universidad Hebrea de Jerusalén exploró esta frontera utilizando un problema matemático clásico de la Grecia antigua: el dilema de “duplicar el cuadrado”.

En el diálogo Menón, Platón presenta a Sócrates desafiando a un joven esclavo a duplicar el área de un cuadrado. La respuesta inicial —duplicar la longitud de los lados— es incorrecta, pues produce un cuadrado cuatro veces mayor. La solución correcta se obtiene utilizando la diagonal del cuadrado original, lo que ha convertido este ejercicio en un referente histórico para analizar la naturaleza del conocimiento matemático y la discusión sobre si este es innato (anámnesis) o aprendido mediante experiencia.

Este escenario resultó idóneo para evaluar si un modelo de lenguaje como ChatGPT puede producir una solución no basada en recuperación textual, sino en razonamiento emergente, es decir, en la síntesis de una solución a partir del contexto y las reglas internas aprendidas durante el entrenamiento.

Metodología del Experimento

El equipo de investigación estructuró la interacción con ChatGPT de forma que evitara cualquier referencia visual o explícita que pudiera inducir al modelo a recuperar fragmentos de texto memorizados. El problema se planteó mediante una descripción verbal del escenario geométrico, formulando preguntas sucesivas para observar si el modelo era capaz de progresar en la construcción de la solución.

La selección de un problema de la Antigüedad fue deliberada: la probabilidad de que este apareciera de forma literal en los datos de entrenamiento de ChatGPT era estadísticamente baja, reduciendo así el riesgo de que la respuesta proviniera de coincidencias textuales preexistentes.

El criterio de éxito no se limitó a obtener la respuesta correcta, sino a evaluar si el modelo podía explicar el procedimiento, lo que implicaría una forma rudimentaria de razonamiento algorítmico y no mera reproducción de conocimiento.

Resultados: Evidencia de Razonamiento Emergente

El modelo no solo identificó la solución correcta al dilema geométrico, sino que ofreció una explicación lógica y estructurada, lo que sugiere que construyó un razonamiento contextualizado a partir de las pistas del diálogo.

En una segunda fase del experimento, los investigadores modificaron el escenario planteando un rectángulo en lugar de un cuadrado. En este caso, ChatGPT incurrió en un error conceptual análogo al que podría presentar un estudiante en formación, lo que fue interpretado como evidencia de un proceso de exploración cognitiva más que de una simple falla.

El investigador Nadav Marco destacó que el modelo parecía “probar hipótesis basándose en su experiencia previa”, un comportamiento característico de los procesos de aprendizaje por analogía en humanos. Esto implica que el modelo, lejos de limitarse a recuperar información, fue capaz de extrapolar conceptos y aplicarlos en un contexto nuevo, aunque de manera imperfecta.

Perspectiva Pedagógica: Zona de Desarrollo Próximo en IA

El profesor Andreas Stylianides vinculó este comportamiento con la Zona de Desarrollo Próximo (ZDP) de Lev Vygotsky, que representa el rango de competencias que un individuo puede alcanzar con asistencia o guía. ChatGPT habría mostrado una capacidad similar al formular explicaciones novedosas sin apoyarse en una memoria explícita de datos, operando en un espacio intermedio entre lo que “sabe” (datos de entrenamiento) y lo que “puede descubrir” mediante interacción.

Desde una perspectiva educativa, esto abre la posibilidad de que modelos de IA funcionen como facilitadores cognitivos, guiando a estudiantes en la construcción activa de conocimiento y en el desarrollo de razonamiento lógico.

Implicaciones para la Investigación en Inteligencia Artificial

El estudio, publicado en la International Journal of Mathematical Education in Science and Technology, subraya que estos hallazgos no implican que la IA piense de forma consciente, pero sí que comienza a mostrar paralelismos funcionales con el razonamiento humano, en particular con el razonamiento inductivo, la generación de hipótesis y la corrección por retroalimentación.

Las implicaciones de este trabajo son múltiples:

Pedagogía asistida por IA: el uso de modelos generativos como tutores interactivos podría potenciar el aprendizaje basado en la exploración.

Ciencia cognitiva computacional: este tipo de resultados aporta un marco experimental para investigar si los modelos de lenguaje pueden servir como modelos teóricos del pensamiento humano.

IA explicativa y transparente: el hecho de que ChatGPT pueda articular su razonamiento fortalece la búsqueda de sistemas que no solo resuelvan problemas, sino que puedan justificar sus conclusiones de manera inteligible para el usuario.

El experimento realizado por las universidades de Cambridge y Jerusalén constituye un avance significativo en la comprensión de los modelos de lenguaje de gran escala. Si bien aún no se puede afirmar que estos sistemas “piensen” como los seres humanos, su capacidad para generar razonamientos novedosos y cometer errores productivos aproxima su comportamiento al de un aprendiz humano en proceso de descubrimiento.

Estos hallazgos sugieren que la próxima generación de IA podría desempeñar un papel más activo en la construcción de conocimiento, no solo como repositorios de datos, sino como colaboradores intelectuales en la resolución de problemas complejos y en la educación del futuro.

Referencias académicas ⬇️

University of Cambridge – ChatGPT seemed to “think on the fly”

International Journal of Mathematical Education in Science and Technology