jueves, noviembre 6, 2025

AI en la Olimpiada Matemática Internacional: Cómo Alphaproof y Alphageometry 2 alcanzaron el estándar de medalla de plata

CienciaAI en la Olimpiada Matemática Internacional: Cómo Alphaproof y Alphageometry 2 alcanzaron el estándar de medalla de plata

El razonamiento matemático es un aspecto vital de las habilidades cognitivas humanas, impulsando el progreso en los descubrimientos científicos y los desarrollos tecnológicos. A medida que nos esforzamos por desarrollar inteligencia general artificial que coincida con la cognición humana, es esencial equipar la IA con capacidades de razonamiento matemático avanzado. Si bien los sistemas de IA actuales pueden manejar problemas matemáticos básicos, luchan con el complejo razonamiento necesario para disciplinas matemáticas avanzadas como el álgebra y la geometría. Sin embargo, esto podría estar cambiando, ya que Google Deepmind ha hecho avances significativos para avanzar en las capacidades de razonamiento matemático de un sistema de IA. Este avance se realiza en la Olimpiada Matemática Internacional (OMI) 2024. Establecido en 1959, la OMI es la competencia matemática más antigua y prestigiosa, desafiando a los estudiantes de secundaria en todo el mundo con problemas en álgebra, combinatoria, geometría y teoría de números. Cada año, los equipos de jóvenes matemáticos compiten para resolver seis problemas muy desafiantes. Este año, Google Deepmind introdujo dos sistemas de IA: Alphaproof, que se centra en el razonamiento matemático formal y la Alfageometría 2, que se especializa en resolver problemas geométricos. Estos sistemas de IA lograron resolver cuatro de seis problemas, actuando a nivel de un medallista de plata. En este artículo, exploraremos cómo funcionan estos sistemas para resolver problemas matemáticos.

Alphaproof: Combinación de IA y lenguaje formal para el teorema matemático

Alphaproof es un sistema de IA diseñado para probar declaraciones matemáticas utilizando el lenguaje formal Lean. Integra Géminis, un modelo de lenguaje previamente capacitado, con Alphazero, un algoritmo de aprendizaje de refuerzo famoso por dominar el ajedrez, el shogi y el Go.

El modelo Gemini traduce las declaraciones de problemas del lenguaje natural en las formales, creando una biblioteca de problemas con diferentes niveles de dificultad. Esto tiene dos propósitos: convertir un lenguaje natural impreciso en un lenguaje formal preciso para verificar las pruebas matemáticas y usar habilidades predictivas de Gemini para generar una lista de posibles soluciones con precisión del lenguaje formal.

Cuando Alphaproof encuentra un problema, genera posibles soluciones y busca pasos de prueba en Lean para verificarlos o refutarlos. Este es esencialmente un enfoque neuroimbólico, donde la red neuronal, Géminis, traduce las instrucciones del lenguaje natural en el lenguaje formal simbólico que se inclina para probar o refutar la declaración. Similar al mecanismo de juego de autocompresión de Alphazero, donde el sistema aprende jugando juegos contra sí mismo, Alphaproof se entrena al intentar probar declaraciones matemáticas. Cada intento de prueba refina el modelo de idioma de Alphaproof, con pruebas exitosas que refuerzan la capacidad del modelo para abordar problemas más desafiantes.

Para la Olimpiada Matemática Internacional (OMI), Alphaproof fue entrenado demostrando o refutando millones de problemas que cubren diferentes niveles de dificultad y temas matemáticos. Esta capacitación continuó durante la competencia, donde Alphaproof refinó sus soluciones hasta que encontró respuestas completas a los problemas.

Alphageometry 2: Integrando LLM y IA simbólica para resolver problemas de geometría

Alphageometry 2 es la última iteración de la serie Alphageometry, diseñada para abordar los problemas geométricos con una mayor precisión y eficiencia. Sobre la base de la base de su predecesor, Alphageometry 2 emplea un enfoque neuroimbólico que fusiona los modelos neuronales de lenguaje grande (LLM) con IA simbólica. Esta integración combina la lógica basada en reglas con la capacidad predictiva de las redes neuronales para identificar puntos auxiliares, esenciales para resolver problemas de geometría. La LLM en alfageometría predice nuevas construcciones geométricas, mientras que la IA simbólica aplica una lógica formal para generar pruebas.

Cuando se enfrenta a un problema geométrico, la LLM de Alphageometry evalúa numerosas posibilidades, prediciendo construcciones cruciales para la resolución de problemas. Estas predicciones sirven como pistas valiosas, guiando el motor simbólico hacia deducciones precisas y avanzando más cerca de una solución. Este enfoque innovador permite a la alfageometría abordar desafíos geométricos complejos que se extienden más allá de los escenarios convencionales.

Una mejora clave en Alphageometry 2 es la integración del Gemini LLM. Este modelo está entrenado desde cero en datos significativamente más sintéticos que su predecesor. Este extenso entrenamiento lo equipa para manejar problemas de geometría más difíciles, incluidos aquellos que involucran movimientos de objetos y ecuaciones de ángulos, proporciones o distancias. Además, Alphageometry 2 presenta un motor simbólico que opera dos órdenes de magnitud más rápido, lo que le permite explorar soluciones alternativas con velocidad sin precedentes. Estos avances hacen de la Alphageometry 2 una herramienta poderosa para resolver problemas geométricos intrincados, estableciendo un nuevo estándar en el campo.

Alphaproof y Alphageometry 2 en IMO

Este año, en la Olimpiada Matemática Internacional (IMO), los participantes fueron evaluados con seis problemas diversos: dos en álgebra, uno en teoría de números, uno en geometría y dos en combinatoria. Los investigadores de Google tradujeron estos problemas en lenguaje matemático formal para Alphaproof y Alphageometry 2. Alphaproof abordó dos problemas de álgebra y un problema de teoría de números, incluido el problema más difícil de la competencia, resuelto por solo cinco concursantes humanos este año. Mientras tanto, la Alfageometría 2 resolvió con éxito el problema de la geometría, aunque no descifró los dos desafíos de combinatoria

Cada problema en la OMI vale siete puntos, sumando a un máximo de 42. Alphaproof y Alphageometry 2 obtuvieron 28 puntos, logrando puntajes perfectos en los problemas que resolvieron. Esto los colocó en el extremo superior de la categoría de medalla de plata. El umbral de la medalla de oro este año fue de 29 puntos, alcanzado por 58 de los 609 concursantes.

Siguiente salto: lenguaje natural para desafíos matemáticos

Alphaproof y Alphageometry 2 han mostrado avances impresionantes en las habilidades matemáticas de resolución de problemas de la IA. Sin embargo, estos sistemas aún dependen de expertos humanos para traducir problemas matemáticos en lenguaje formal para el procesamiento. Además, no está claro cómo estas habilidades matemáticas especializadas podrían incorporarse en otros sistemas de IA, como para explorar hipótesis, probar soluciones innovadoras a problemas de larga data y administrar eficientemente aspectos de las pruebas.

Para superar estas limitaciones, los investigadores de Google están desarrollando un sistema de razonamiento de lenguaje natural basado en Gemini y su última investigación. Este nuevo sistema tiene como objetivo avanzar en las capacidades de resolución de problemas sin requerir la traducción formal del idioma y está diseñado para integrarse sin problemas con otros sistemas de IA.

El resultado final

El desempeño de Alphaproof y Alphageometry 2 en la Olimpiada Matemática Internacional es un salto notable adelante en la capacidad de AI para abordar un razonamiento matemático complejo. Ambos sistemas demostraron un rendimiento a nivel de medalla de plata al resolver cuatro de seis problemas desafiantes, demostrando avances significativos en pruebas formales y resolución de problemas geométricos. A pesar de sus logros, estos sistemas de IA aún dependen de los aportes humanos para traducir problemas en un lenguaje formal y enfrentan desafíos de integración con otros sistemas de IA. La investigación futura tiene como objetivo mejorar aún más estos sistemas, potencialmente integrando el razonamiento del lenguaje natural para extender sus capacidades en una gama más amplia de desafíos matemáticos.

Artículos más populares