Tendencias

12, Enero 2021

La IA no razona ni piensa

Un reciente estudio realizado por Apple revela que los modelos de inteligencia artificial solo se limitan a imitar patrones que consideran lógicos: no nos escuchan ni nos entienden.

En el día de ayer, la reconocida empresa de la “manzanita” publicó un paper titulado “The Illusion of Thinking: Understanding the Strengths and Limitations of Reasoning Models via the Lens of Problem Complexity”, que en español puede traducirse (y resumirse) como “La Ilusión del Pensamiento”

El estudio, que se lanzó horas antes del inicio del “WWDC25” (que es la Conferencia Mundial de Desarrolladores de Apple, por sus siglas en español), reveló algunas importantes limitaciones de los modelos de inteligencia artificial con razonamiento (LRM) más reconocidos, entre ellos ChatGPT, Claude y DeepSeek.

Uno de los hallazgos señala que estos modelos, por más brillantes que parezcan, no entienden lo que hacen. No resuelven problemas y tampoco razonan, solo generan texto palabra por palabra, tratando de sonar coherentes y bajo modelos lógico-matemáticos que escogen y descartan “opciones” de acuerdo a los comandos que les proporcionamos.

En el mismo punto, Apple concluye que estos sistemas colapsan cuando se enfrentan a tareas complejas, y en algunos casos, incluso son superados por los modelos estándar sin razonamiento (LLM). Los resultados muestran que, aunque los LRM pueden destacar en tareas de complejidad media, su rendimiento decae significativamente en pruebas más exigentes, como el rompecabezas de la Torre de Hanói.

Según la empresa, estos modelos no logran escalar sus capacidades de razonamiento como lo haría un ser humano. Aun con tiempo de cómputo disponible y comandos detallados, tienden a abandonar los problemas cuando alcanzan un umbral crítico de dificultad. ¿Y por qué pasa esto? Porque la IA no sabe si va bien o mal, no tiene una idea de objetivo, no compara ni evalúa; solo se limita a completar texto, a dar respuestas sin saber para qué.

Estos descubrimientos chocan frontalmente con una idea muy extendida entre los más entusiastas de estas herramientas digitales, que indica que “si seguimos dándole más datos y entrenando a la IA, esta se volverá más inteligente y capaz de superarnos”. Apple señala que esto, probablemente, sea imposible, ya que estas plataformas solo simulan ser inteligente y “leernos”, pero que en realidad solo ejecutan patrones aprehendidos y siguen un libreto (como si estuvieran actuando ser inteligentes).

Si bien muchos señalan que Apple publicó este paper con la intención de “autojustificarse” por estar rezagada en la carrera del desarrollo de estas herramientas (ya que lo hizo horas antes del WWDC25, donde anunció implementaciones de IA en sus sistemas operativos), es interesante adentrarse en el contenido del estudio, en la naturaleza de sus revelaciones y en las interrogantes que deja para discutir de ahora en adelante.

Compartilo en: