ChatGPT en el mando de una nave espacial: la nueva frontera de la inteligencia artificial aplicada a la exploración orbital

Foto de BrinMacen

En un escenario que hasta hace poco parecía exclusivo del género de ciencia ficción, un modelo de lenguaje como ChatGPT ha logrado desempeñar con éxito un papel que tradicionalmente ha estado reservado a astronautas y sistemas de navegación altamente especializados: el pilotaje autónomo de una nave espacial. Esta hazaña no se dio en el marco de una misión oficial, sino en un entorno simulado, pero sus implicaciones son tan profundas que abren nuevas vías de pensamiento sobre el futuro de la inteligencia artificial en el espacio.

El experimento fue realizado por un equipo de investigadores del Instituto Tecnológico de Massachusetts (MIT) y la Universidad Politécnica de Madrid, quienes decidieron someter a prueba las capacidades operativas de un modelo de lenguaje de última generación en un entorno de alta complejidad orbital. Para ello, eligieron como banco de pruebas el reconocido simulador espacial Kerbal Space Program (KSP), un videojuego que, gracias a su fidelidad con las leyes de la física, ha sido adoptado por la comunidad científica como plataforma educativa y experimental.

A diferencia de los sistemas tradicionales que se apoyan en programación basada en ecuaciones físicas, algoritmos de control y aprendizaje por refuerzo, ChatGPT fue instruido únicamente con lenguaje natural. Los parámetros críticos del entorno —posición, altitud, orientación, velocidad— eran traducidos en descripciones textuales. El modelo, a su vez, respondía con instrucciones también en texto, que luego eran transformadas en comandos operativos por una capa intermedia de software. De esta forma, ChatGPT pilotaba la nave como si estuviera manteniendo un diálogo continuo con el sistema: “corrige trayectoria”, “desacelera”, “gira en sentido horario”. Una conversación que sucedía en tiempo real, cientos de veces por segundo, y que permitía ejecutar maniobras complejas con notable precisión.

Este enfoque representa una innovación radical. Tradicionalmente, el entrenamiento de agentes autónomos en entornos espaciales requería millones de simulaciones para generar comportamientos robustos. En cambio, ChatGPT se benefició de su conocimiento previo: entrenado con grandes volúmenes de datos, desde manuales técnicos hasta textos científicos, fue capaz de inferir, con razonamiento lógico y contextual, las acciones más adecuadas en cada situación. Esta forma de operar se puede considerar una forma de “sentido común artificial”.

El resultado del experimento fue notable: ChatGPT obtuvo el segundo lugar en una competición especializada dentro del entorno de Kerbal Space Program, superando a una amplia gama de sistemas programados explícitamente para navegación espacial. Esto no solo evidencia la eficacia del modelo, sino que pone en tela de juicio la rigidez de los métodos tradicionales frente a la versatilidad de los modelos generativos.

Junto a ChatGPT, también se evaluó el desempeño de LLaMA, un modelo de lenguaje de código abierto desarrollado por Meta. Aunque requirió un mayor número de sesiones de entrenamiento, demostró un alto potencial de adaptación y terminó también entre los finalistas. Ambos modelos evidenciaron que las IA generativas no se limitan a la comprensión del lenguaje, sino que son capaces de abordar tareas que requieren razonamiento espacial, planificación táctica y ejecución autónoma en tiempo real.

Sin embargo, este avance no está exento de desafíos. Uno de los más críticos es el riesgo de errores o “alucinaciones”, es decir, respuestas lógicamente estructuradas pero incorrectas o inconsistentes. En un entorno de alta exigencia como el espacial, una instrucción fallida puede traducirse en la pérdida de una misión o, en contextos más avanzados, en un riesgo para vidas humanas. Por ello, aunque prometedor, el despliegue de modelos generativos en operaciones espaciales reales requerirá rigurosos sistemas de validación y redundancia.

Lo relevante de este experimento no es solo su éxito técnico, sino el contexto en el que se llevó a cabo. Lejos de instalaciones cerradas o recursos clasificados, la investigación utilizó herramientas disponibles públicamente: un videojuego ampliamente accesible y modelos de lenguaje que pueden ser ejecutados desde computadoras comunes. Esto democratiza el acceso a la experimentación espacial y sugiere que el desarrollo de tecnologías de navegación autónoma ya no está limitado a agencias gubernamentales o grandes corporaciones aeroespaciales. Investigadores independientes, universidades e incluso desarrolladores individuales podrían participar activamente en esta nueva era.

La posibilidad de que modelos de lenguaje puedan convertirse en operadores autónomos de misiones espaciales redefine el papel de la inteligencia artificial en la astronáutica. Se vislumbra un futuro donde sondas interplanetarias navegan sin intervención humana, donde satélites toman decisiones en tiempo real para evitar colisiones o maximizar eficiencia orbital, y donde bases en Marte o en la Luna podrían operar bajo supervisión de una IA capaz de adaptarse a condiciones imprevistas.

Este avance marca un cambio de paradigma: de una inteligencia artificial asistente a una inteligencia artificial agente. Una tecnología que no solo responde, sino que actúa; no solo interpreta órdenes, sino que razona, decide y ejecuta con autonomía. Y lo más sorprendente es que todo esto ya no pertenece al reino de la ficción. Se está desarrollando aquí y ahora, con herramientas cotidianas y resultados extraordinarios.

La inteligencia artificial ha cruzado un umbral. Ya no es una herramienta pasiva al servicio del conocimiento humano. Se convierte en un protagonista activo del futuro espacial. Hoy no solo pensamos con IA. Hoy, también volamos con ella.


---

Referencias
Carrasco, A., Rodriguez-Fernandez, V., & Linares, R. (2025). Large Language Models as Autonomous Spacecraft Operators in Kerbal Space Program. Advances in Space Research.


Entradas populares