¿Por qué la IA falla en la vida real? Los límites de la optimización matemática
- Samuel Fernández Lorenzo

- hace 6 días
- 5 Min. de lectura
Imagina que entrenas a un robot para que sea un chef perfecto. Le enseñas miles de recetas, le muestras técnicas impecables, y en las pruebas de cocina obtiene un 95% de acierto. Luego lo llevas a un restaurante real y... llega el desastre. No sabe qué hacer cuando se acaba un ingrediente, cuando un cliente pide algo fuera del menú, o cuando la cocina está en llamas (literalmente). Tu robot carece de la capacidad de improvisación y adaptación que un humano posee.
Esto, en esencia, es lo que está pasando con la inteligencia artificial en 2026. ¿Por qué ocurre esto?
El problema de las evaluaciones en IA
Si sigues de cerca el mundo de la IA, habrás oído hablar de los famosos benchmarks: esos tests estandarizados donde los modelos demuestran sus capacidades. MMLU para conocimiento general, SWE-bench para programación, GPQA para razonamiento... Los números son impresionantes. Los modelos obtienen puntuaciones cada vez más altas.
Pero la gente ya se ha dado cuenta de un problema: esos números no se están traduciendo en utilidad real.
Un modelo puede sacar un 95% en un test de laboratorio y fallar estrepitosamente en el 95% de los casos reales. ¿Por qué? Porque los benchmarks son entornos controlados, con preguntas de opción múltiple, tareas sintéticas y sin el caos, la ambigüedad y las sorpresas que caracterizan al mundo real.
A esto lo llaman benchmaxxing: entrenar modelos para maximizar puntuaciones en tests específicos, sin que eso garantice que funcionen cuando los sueltas en la naturaleza. Es como estudiar para un examen memorizando las respuestas sin entender realmente la materia.
Problemas estructurados vs. desestructurados
Para entender por qué pasa esto, necesitamos distinguir entre dos tipos fundamentales de problemas.
Los problemas estructurados son como el ajedrez, el sudoku o cualquier juego de Nintendo. Tienen reglas claras, un espacio de estados bien definido, y sabemos exactamente qué variables y relaciones intervienen. Conocemos el sistema con el que trabajamos.
Pero la vida real rara vez nos presenta problemas así de amables.
Los problemas desestructurados son otra historia completamente diferente. Imagina un empresario preguntándose qué precio poner a su producto. O un alcalde tratando de mejorar la calidad de vida de su ciudad. O una persona cualquiera tratando de decidir cómo va a invertir su dinero. En todos estos casos, no solo desconocemos la respuesta correcta, sino que ni siquiera tenemos claro cuál es el espacio del problema en primer lugar.
En un problema estructurado, la incertidumbre viene de no saber cuál de las opciones conocidas elegir. En un problema desestructurado, la incertidumbre es mucho más profunda: no sabemos ni siquiera qué opciones existen realmente. Hay aspectos genuinamente inéditos, fuera de toda previsión.
La prueba del algodón: si ni siquiera la búsqueda por fuerza bruta tiene sentido, probablemente estás ante un problema desestructurado.
Un ejemplo sencillo pero revelador
Mira estos tres triángulos. Cada uno tiene números en sus vértices y otro en el centro. Pero uno de ellos tiene una interrogación en el centro. ¿Qué número falta?

Este tipo de acertijo es fascinante porque no puede resolverse mediante deducción lógica pura. Tienes que imaginar un patrón que conecte los datos entre sí. Podrías sumar números del mismo triángulo, o combinar vértices equivalentes de diferentes triángulos, o usar divisiones, o... infinitas posibilidades.
Ninguna está explícitamente permitida o prohibida. No hay un espacio de búsqueda predefinido. Tú tienes que imaginarlo primero, estructurar el problema tú mismo, antes de siquiera poder buscar una solución. Por ello, ni siquiera una búsqueda por fuerza bruta supone una solución general a este tipo de problema.
Este es el núcleo de un problema desestructurado: el espacio de búsqueda depende de tu imaginación. Y solo después de haberlo definido tiene sentido aplicar algún tipo de búsqueda sistemática de la solución.
Cómo aprende la IA (y por qué tiene límites)
Aquí viene algo que sorprende a muchas personas no técnicas: cuando un algoritmo de IA "aprende", lo que realmente está haciendo es resolver un problema de optimización, o sea, una búsqueda dentro de un espacio estructurado.
El proceso funciona así:
Tienes datos (ejemplos concretos).
El programador introduce un ansatz: una familia de modelos posibles dentro de la cual buscar. Por ejemplo, "asumamos que la relación es lineal" o "usemos una red neuronal de tal arquitectura".
Se define una función de coste que mide qué tan bien cada modelo explica los datos.
El algoritmo busca el modelo que minimiza esa función de coste.
Ese es el "aprendizaje". El modelo óptimo es simplemente el punto mínimo de una función matemática.
Y aquí está el quid de la cuestión: todo este proceso requiere que el problema ya esté estructurado. Necesitas definir el espacio de modelos posibles, las variables relevantes, la función de coste. Estás resolviendo un problema de optimización dentro de un marco que tú mismo has establecido.
El límite fundamental de la optimización
Claro, una IA entrenada sobre una base de datos enorme puede intentar "domesticar" problemas desestructurados de manera aproximada, buscando similitudes con situaciones pasadas. Y de hecho, lo hace con cierto éxito. Incluso con tanto éxito que puede ser suficiente en una gran mayoría de situaciones.
Pero el diablo está en los detalles. La capacidad de adaptación e imaginación en entornos complejos siempre tendrá limitaciones de base.
No es sorprendente que los sistemas de IA fallen en tareas de la vida real, porque en el fondo, un sistema de IA es el resultado de una optimización estructurada. En definitiva:
Un problema de optimización estructurada nunca podrá ser una solución general a los problemas desestructurados que nos enfrenta la vida.
Los problemas desestructurados suponen un orden de complejidad fundamentalmente diferente. No es solo que sean "más difíciles" que los problemas estructurados; es que pertenecen a una categoría cualitativamente distinta.
Por muy grande que sea el modelo, por muchos parámetros que tenga, por más datos con los que lo entrenes... si el problema requiere imaginar un espacio de búsqueda completamente nuevo, uno que no está implícito en ninguno de tus datos de entrenamiento, la IA se quedará corta.
Aquí es donde entra el verdadero problema: los promotores de la IA nos venden una promesa de solución futura. Figuras influyentes en el sector (incluidas voces críticas como Yann LeCun) sugieren que cada limitación actual se resolverá con el próximo avance, ya sea el próximo ciclo de entrenamiento, con más datos, con la siguiente arquitectura innovadora... Y claro está, detrás de toda esta gente aparece toda una masa de acólitos tecnocreyentes cuya capacidad crítica es tan amplia como la extensión de un tweet.
Pero este optimismo tecnológico se parece cada vez más a un acto de fe. Es casi un revival de la fe positivista del siglo XX de autores como Rudolf Carnap, aquí expresada en una creencia de que todos los problemas se pueden reducir a un problema de optimización, o un .csv muy grande (”God will be a .csv file”, Elon Musk).
Y lo que pocos están diciendo en voz alta es esto: si el límite es fundamental, no técnico, entonces más escala no es la solución. Sencillamente no hay solución algorítmica perfecta.
¿Quieres profundizar más sobre límites algorítmicos y las diferencias entre problemas estructurados y desestructurados? Te recomiendo leer la tercera parte de Todo lo que puedo imaginar: el algoritmo del entendimiento.



Comentarios