El futuro de la inteligencia artificial y las matemáticas
MATEMÁTICAS / INTELIGENCIA ARTIFICIAL. Tiempo de lectura: 17 minutos.
Según DARPA, las matemáticas están ancladas en el pasado. En abril, la Agencia de Proyectos de Investigación Avanzada de Defensa de Estados Unidos puso en marcha una nueva iniciativa denominada expMath (abreviatura de Exponentiating Mathematics) con la que espera acelerar el ritmo de progreso en un campo de investigación que sustenta una amplia gama de aplicaciones cruciales en el mundo real, desde la informática a la medicina o la seguridad nacional.
«Las matemáticas son la fuente de un enorme impacto, pero se hacen más o menos como se han hecho durante siglos: con gente de pie ante pizarras», dijo el director del programa DARPA, Patrick Shafto, en un vídeo de presentación de la iniciativa.
El mundo moderno se basa en las matemáticas. Las matemáticas nos permiten modelizar sistemas complejos como la forma en que el aire fluye alrededor de un avión, la forma en que fluctúan los mercados financieros y la forma en que la sangre fluye por el corazón. Y los avances en matemáticas avanzadas pueden desbloquear nuevas tecnologías como la criptografía, esencial para la mensajería privada y la banca en línea, y la compresión de datos, que nos permite enviar imágenes y vídeo a través de Internet.
Pero los avances matemáticos pueden tardar años en producirse. DARPA quiere acelerar las cosas. El objetivo de expMath es animar a matemáticos e investigadores de inteligencia artificial a desarrollar lo que DARPA denomina un coautor de IA, una herramienta que podría dividir los grandes y complejos problemas matemáticos en otros más pequeños y sencillos, más fáciles de entender y, por tanto, más rápidos de resolver.
Los matemáticos llevan décadas utilizando ordenadores para acelerar los cálculos o comprobar si ciertas afirmaciones matemáticas son ciertas. La nueva visión es que la IA podría ayudarles a descifrar problemas que antes eran insalvables.
Pero hay una gran diferencia entre una IA capaz de resolver el tipo de problemas que se plantean en el instituto -matemáticas que la última generación de modelos ya domina- y una IA que podría (en teoría) resolver el tipo de problemas que los matemáticos profesionales se pasan la carrera desmenuzando.
Por un lado, hay herramientas capaces de automatizar ciertas tareas para las que se emplean licenciados en matemáticas; por otro, herramientas capaces de llevar el conocimiento humano más allá de sus límites actuales.
He aquí tres maneras de considerar ese abismo.
1/ La IA necesita algo más que trucos ingeniosos.
Los grandes modelos lingüísticos no son buenos en matemáticas. Se inventan cosas y se les puede convencer de que 2 + 2 = 5. Pero las nuevas versiones de esta tecnología, especialmente los llamados modelos de razonamiento de gran tamaño (LRM) como el o3 de OpenAI y el Claude 4 Thinking de Anthropic, son mucho más capaces, lo que ha entusiasmado a los matemáticos.
Este año, varios LRM, que intentan resolver un problema paso a paso en lugar de escupir el primer resultado que se les ocurre, han obtenido altas puntuaciones en el American Invitational Mathematics Examination (AIME), una prueba que se realiza al 5% de los mejores estudiantes de matemáticas de secundaria de Estados Unidos.
Al mismo tiempo, un puñado de nuevos modelos híbridos que combinan LLM con algún tipo de sistema de comprobación de hechos también han logrado avances. Emily de Oliveira Santos, matemática de la Universidad de São Paulo (Brasil), señala el AlphaProof de Google DeepMind, un sistema que combina un LLM con el modelo de juego AlphaZero de DeepMind, como un hito clave. El año pasado, AlphaProof se convirtió en el primer programa informático en igualar el rendimiento de un medallista de plata en la Olimpiada Internacional de Matemáticas, una de las competiciones matemáticas más prestigiosas del mundo.
Y en mayo, un modelo de Google DeepMind llamado AlphaEvolve descubrió mejores resultados que cualquier cosa que los humanos hubieran conseguido hasta ahora para más de 50 enigmas matemáticos sin resolver y varios problemas de informática del mundo real.
El avance es evidente. «GPT-4 no podía hacer matemáticas más allá del nivel universitario», dice de Oliveira Santos. «Recuerdo haberlo probado en el momento de su lanzamiento con un problema de topología, y simplemente no podía escribir más de unas pocas líneas sin perderse por completo». Pero cuando le dio el mismo problema al o1 de OpenAI, un LRM lanzado en enero, lo clavó.
¿Significa esto que estos modelos están preparados para convertirse en el tipo de coautores que espera DARPA? No necesariamente, dice: «Los problemas de las Olimpiadas Matemáticas suelen implicar ser capaz de llevar a cabo trucos ingeniosos, mientras que los problemas de investigación son mucho más exploratorios y suelen tener muchísimas más piezas móviles». El éxito en un tipo de resolución de problemas puede no trasladarse a otro.
Otros están de acuerdo. Martin Bridson, matemático de la Universidad de Oxford, cree que el resultado de la Olimpiada Matemática es un gran logro. «Por otro lado, no me parece alucinante», afirma. «No es un cambio de paradigma en el sentido de ‘Vaya, pensaba que las máquinas nunca serían capaces de hacer eso’. Esperaba que las máquinas fueran capaces de hacerlo».
Esto se debe a que, aunque los problemas de la Olimpiada Matemática -y de pruebas similares de bachillerato o licenciatura como la AIME- son difíciles, muchos de ellos siguen un patrón. «Tenemos campos de entrenamiento para enseñar a los chicos de secundaria a hacerlos», dice Bridson. «Y si puedes entrenar a un gran número de personas para hacer esos problemas, ¿por qué no ibas a poder entrenar a una máquina para hacerlos?».
Sergei Gukov, matemático del Instituto Tecnológico de California que entrena a los equipos de las Olimpiadas Matemáticas, señala que el estilo de las preguntas no cambia demasiado entre una competición y otra. Cada año se plantean problemas nuevos, pero pueden resolverse con los mismos trucos de siempre.
«Claro, los problemas concretos no aparecían antes», dice Gukov. «Pero están muy cerca, a un paso de millones de cosas que ya has visto. Inmediatamente te das cuenta de que hay muchas similitudes: voy a aplicar la misma táctica». Por muy difíciles que sean las matemáticas a nivel de competición, tanto a los niños como a las máquinas se les puede enseñar a superarlas.
No ocurre lo mismo con la mayoría de los problemas matemáticos sin resolver. Bridson es presidente del Instituto Clay de Matemáticas, una organización de investigación sin ánimo de lucro con sede en EE.UU. más conocida por haber creado en 2000 los Problemas del Premio del Milenio: siete de los problemas matemáticos más importantes sin resolver, con un premio de un millón de dólares para la primera persona que resolviera cada uno de ellos. (Uno de los problemas, la conjetura de Poincaré, se resolvió en 2010; los otros, que incluyen P contra NP y la hipótesis de Riemann, siguen abiertos). «Estamos muy lejos de que la IA pueda decir algo serio sobre cualquiera de esos problemas», afirma Bridson.
Y, sin embargo, es difícil saber exactamente a qué distancia, porque muchos de los puntos de referencia existentes utilizados para evaluar los avances están al máximo. Los mejores modelos nuevos ya superan a la mayoría de los humanos en pruebas como AIME.
Para tener una mejor idea de lo que los sistemas existentes pueden y no pueden hacer, una startup llamada Epoch AI ha creado una nueva prueba llamada FrontierMath, lanzada en diciembre. En lugar de cooptar pruebas matemáticas desarrolladas para humanos, Epoch AI trabajó con más de 60 matemáticos de todo el mundo para idear un conjunto de problemas matemáticos desde cero.
FrontierMath se ha diseñado para sondear los límites de lo que puede hacer la IA actual. Ninguno de los problemas se ha visto antes y la mayoría se mantienen en secreto para evitar contaminar los datos de entrenamiento. Cada problema exige horas de trabajo de matemáticos expertos para resolverlo, si es que pueden hacerlo: algunos de los problemas requieren conocimientos especializados.
FrontierMath está llamado a convertirse en un estándar del sector. Todavía no es tan popular como AIME, dice de Oliveira Santos, que ayudó a desarrollar algunos de los problemas: «Pero espero que esto no sea así durante mucho más tiempo, ya que los puntos de referencia existentes están muy cerca de saturarse».
En AIME, los mejores modelos lingüísticos de gran tamaño (Claude 4 de Anthropic, o3 y o4-mini de OpenAI, Gemini 2.5 Pro de Google DeepMind, Grok 3 de X-AI) obtienen ahora una puntuación en torno al 90%. En FrontierMath, 04-mini obtiene un 19% y Gemini 2.5 Pro, un 13%. Sigue siendo un resultado notable, pero hay un claro margen de mejora.
FrontierMath debería dar una mejor idea de lo rápido que progresa la IA en matemáticas. Pero hay algunos problemas que siguen siendo demasiado difíciles para los ordenadores.
2/ La IA necesita gestionar secuencias de pasos realmente vastas.
Entrecierra los ojos lo suficiente y, en cierto modo, los problemas matemáticos empiezan a parecerse: para resolverlos hay que seguir una secuencia de pasos de principio a fin. El problema es encontrar esos pasos.
«Prácticamente todos los problemas matemáticos pueden formularse como la búsqueda de un camino», afirma Gukov. Lo que hace que algunos problemas sean mucho más difíciles que otros es el número de pasos de ese camino. «La diferencia entre la hipótesis de Riemann y las matemáticas de bachillerato es que en el caso de las matemáticas de bachillerato los caminos que buscamos son cortos: 10 pasos, 20 pasos, quizá 40 en el caso más largo». Los pasos también se repiten entre problemas.
«Pero para resolver la hipótesis de Riemann no tenemos los pasos, y lo que buscamos es un camino extremadamente largo», quizá un millón de líneas de prueba informática, dice Gukov.
Encontrar secuencias de pasos muy largas puede considerarse una especie de juego complejo. Es lo que aprendió a hacer AlphaZero de DeepMind cuando dominó el Go y el ajedrez. Una partida de Go puede implicar sólo unos cientos de movimientos. Pero para ganar, una IA debe encontrar una secuencia de movimientos ganadora entre un gran número de secuencias posibles. Imagina un número con 100 ceros al final, dice Gukov.
Pero eso sigue siendo una cifra ínfima comparada con el número de secuencias posibles que podrían intervenir en la demostración o refutación de un problema matemático muy difícil: «Una ruta de demostración con mil o un millón de movimientos implica un número con mil o un millón de ceros», dice Gukov.
Ningún sistema de IA puede cribar tantas posibilidades. Para solucionarlo, Gukov y sus colegas desarrollaron un sistema que acorta la longitud de un camino combinando múltiples movimientos en supermovimientos únicos. Es como tener unas botas que te permiten dar zancadas gigantes: en vez de dar 2.000 pasos para recorrer una milla, ahora puedes hacerlo en 20.
El reto consistía en averiguar qué movimientos sustituir por supermovimientos. En una serie de experimentos, los investigadores idearon un sistema en el que un modelo de aprendizaje por refuerzo sugiere nuevos movimientos y un segundo modelo comprueba si esos movimientos ayudan.
Utilizaron este enfoque para hacer un gran avance en un problema matemático llamado la conjetura Andrews-Curtis, un rompecabezas que ha estado sin resolver durante 60 años. Es un problema que todo matemático profesional conocerá, dice Gukov.
(Un inciso para los aficionados a las matemáticas: La conjetura AC afirma que una forma particular de describir un tipo de conjunto llamado grupo trivial puede traducirse en una descripción diferente pero equivalente con una determinada secuencia de pasos. La mayoría de los matemáticos creen que la conjetura AC es falsa, pero nadie sabe cómo demostrarlo. El propio Gukov admite que se trata de una curiosidad intelectual más que de un problema práctico, pero no deja de ser un problema importante para los matemáticos).
Gukov y sus colegas no resolvieron la conjetura AC, pero descubrieron que un contraejemplo (que sugiere que la conjetura es falsa) propuesto hace 40 años era falso en sí mismo. «Ha sido una de las principales líneas de ataque durante 40 años», afirma Gukov. Con la ayuda de la IA, demostraron que esta dirección era, de hecho, un callejón sin salida.
«Descartar posibles contraejemplos es algo que merece la pena», dice Bridson. «Puede cerrar callejones sin salida, algo en lo que podrías pasar un año de tu vida explorando».
Es cierto que Gukov sólo resolvió una pieza de un rompecabezas esotérico. Pero cree que el método funcionará en cualquier situación en la que haya que encontrar una larga secuencia de movimientos desconocidos, y ahora planea probarlo en otros problemas.
«Quizá conduzca a algo que ayude a la IA en general», afirma. «Porque enseña a los modelos de aprendizaje por refuerzo a ir más allá de su entrenamiento. Para mí se trata básicamente de pensar fuera de la caja: a kilómetros, a megaparsecs de distancia».
3/ ¿Podrá alguna vez la IA proporcionar una visión real?.
Pensar con originalidad es exactamente lo que necesitan los matemáticos para resolver problemas difíciles. A menudo se piensa que las matemáticas implican procedimientos robóticos, paso a paso. Pero las matemáticas avanzadas son una búsqueda experimental, que implica ensayo y error y destellos de perspicacia.
Ahí es donde entran en juego herramientas como AlphaEvolve. El último modelo de Google DeepMind pide a un LLM que genere código para resolver un problema matemático concreto. A continuación, un segundo modelo evalúa las soluciones propuestas, elige las mejores y las devuelve al LLM para que las mejore. Tras cientos de rondas de prueba y error, AlphaEvolve fue capaz de encontrar soluciones a una amplia gama de problemas matemáticos que eran mejores que cualquier otra cosa que se hubiera propuesto hasta entonces. Pero también puede funcionar como una herramienta colaborativa: en cualquier paso, los humanos pueden compartir sus propias ideas con el LLM, dándole instrucciones específicas.
Este tipo de exploración es clave en las matemáticas avanzadas. «A menudo busco fenómenos interesantes y me empujo en una dirección determinada», dice Geordie Williamson, matemático de la Universidad de Sídney (Australia). «Por ejemplo: ‘Déjame mirar por este callejón. He encontrado algo'».
Williamson trabajó con Meta en una herramienta de IA llamada PatternBoost, diseñada para apoyar este tipo de exploración. PatternBoost puede tomar una idea o enunciado matemático y generar otros similares. «Es como: ‘Aquí hay un montón de cosas interesantes. No sé qué está pasando, pero ¿puedes producir más cosas interesantes como esta?», dice.
Esta lluvia de ideas es esencial en matemáticas. Así es como surgen las nuevas ideas. Tomemos el icosaedro, dice Williamson: «Es un bello ejemplo de esto, al que siempre vuelvo en mi trabajo». El icosaedro es un objeto tridimensional de 20 caras en el que todas las caras son triángulos (piense en un dado de 20 caras). El icosaedro es el mayor de una familia de exactamente cinco objetos de este tipo: está el tetraedro (cuatro caras), el cubo (seis caras), el octaedro (ocho caras) y el dodecaedro (12 caras).
Sorprendentemente, el hecho de que existan exactamente cinco de estos objetos fue demostrado por matemáticos de la antigua Grecia. «En la época en que se demostró este teorema, el icosaedro no existía», afirma Williamson. «No se puede ir a una cantera y encontrarlo: alguien lo encontró en su mente. Y el icosaedro tuvo un profundo efecto en las matemáticas. Todavía hoy nos influye de maneras muy, muy profundas».
Para Williamson, el potencial de herramientas como PatternBoost es que pueden ayudar a descubrir futuros objetos matemáticos como el icosaedro, que darán forma a la manera de hacer matemáticas. Pero aún no hemos llegado a ese punto. «La IA puede contribuir de forma significativa a los problemas de investigación«, afirma. «Pero desde luego no nos estamos viendo inundados de nuevos teoremas en esta fase».
En última instancia, todo se reduce al hecho de que las máquinas siguen careciendo de lo que podríamos llamar intuición o pensamiento creativo. Williamson lo resume así: Ahora tenemos una IA que puede ganar a los humanos cuando conoce las reglas del juego. «Pero una cosa es que un ordenador juegue al Go a un nivel sobrehumano y otra que el ordenador invente el juego del Go».
«Creo que eso se aplica a las matemáticas avanzadas«, afirma. «Los grandes avances surgen de una nueva forma de pensar sobre algo, algo parecido a encontrar jugadas completamente nuevas en un juego. Y no creo que entendamos realmente de dónde vienen esas jugadas realmente brillantes en las matemáticas profundas».
Quizá sea mejor pensar en herramientas de IA como AlphaEvolve y PatternBoost como exploradores avanzados de la intuición humana. Pueden descubrir nuevas direcciones y señalar callejones sin salida, ahorrando a los matemáticos meses o años de trabajo. Pero los verdaderos avances seguirán surgiendo de la mente de las personas, como ha ocurrido durante miles de años.
Al menos por ahora. «Hay muchas empresas tecnológicas que nos dicen que eso no durará mucho», dice Williamson. «Pero ya veremos».
Por: Will Douglas Heaven.
Sitio Fuente: MIT Technology Review