En la reciente edición número 66 de la Olimpiada de Matemáticas (IMO), que se llevó a cabo del 10 al 20 de julio de 2025 en Queensland, Australia, se vivió un momento histórico: aunque los modelos de inteligencia artificial más avanzados, como los desarrollados por Google DeepMind (Gemini) y OpenAI, obtuvieron un reconocimiento equivalente a medalla de oro, fueron superados por el talento de jóvenes competidores preuniversitarios.
La IA alcanzó “oro”, pero no la perfección
Durante su participación, los sofisticados modelos de IA resolvieron cinco de los seis problemas planteados —con lo que obtuvieron 35 puntos sobre 42 posibles— lo cual les valió un estatus equivalente a una medalla de oro.
Sin embargo, ningún modelo obtuvo puntuación perfecta. En contraste, cinco participantes humanos, provenientes de China, Canadá, Japón y Rusia, lograron el calificativo máximo de 42 puntos, resaltando el dominio absoluto del razonamiento humano frente a las máquinas.
Más humanos que IA igualaron su puntaje
Otros 46 estudiantes humanos alcanzaron también los 35 puntos logrados por las IA, demostrando que ese nivel de desempeño ya es logrado por varios concursantes. El hecho de que solo cinco obtuvieran la puntuación perfecta evidencia aún más la diferencia en rendimiento.
Dentro de este bloque, figuraron dos mexicanos que alcanzaron medallas de plata y cuatro que ganaron bronce.
Participación y rendimientos destacados
- 641 estudiantes de 112 países participaron en la IMO 2025, enfrentándose a seis ejercicios de alto rigor matemático, cada uno con un máximo de 7 puntos.
- Cerca del 10 % de los concursantes humanos se hicieron acreedores de una medalla de oro.
- La IA, en tanto, alcanzó solo un nivel equivalente pero no impecable, siendo incapaz de resolver un problema clave y fallando en el sexto ejercicio.
Transparencia limitada: Dudas sobre participación de IA
Los organizadores del certamen señalaron que no pudieron verificar con certeza ni la potencia informática utilizada por las IA, ni si en algún momento hubo intervención humana en su proceso de respuesta. “La IMO no puede validar los métodos, ni la capacidad computacional utilizada, ni si hubo asistencia humana”, comunicó su presidente, Gregor Dolinar.
Aun con esas limitaciones, las soluciones matemáticas correctas fueron consideradas válidas, ya fueran creadas por humanos o generadas por IA.
Innovación digital: Premio IMO a la IA de código abierto
Por primera vez, la IMO introdujo un galardón específico para inteligencia artificial: se patrocinó el Premio de la Olimpiada Matemática de IA, con un fondo de 10 millones de dólares, destinado a fomentar modelos avanzados de código abierto. El ganador de esta edición fue NeMo‑Skills, una propuesta de NvidiaAI, diseñada para facilitar el escalado de entrenamientos e inferencia a gran escala.
Además, entidades como Google, OpenAI y Nvidia fueron invitadas a presentar sus avances y probar modelos internos de manera privada, en un espacio paralelo al concurso estudiantil.
¿Qué revelan estos resultados?
El resultado reafirma que, pese al progreso notable de las máquinas, el razonamiento humano, la intuición, la creatividad y la capacidad de formular demostraciones coherentes siguen marcando la diferencia en competencias de nivel olímpico.
Los modelos actuales ofrecen respuestas rápidas y correctas en buena medida, pero carecen del rigor y la profundidad lógica que distinguen a los mejores matemáticos preuniversitarios.
Mente humana imbatible (por ahora)
Aunque las IA han alcanzado un nivel de precisión impresionante, no lograron igualar las puntuaciones perfectas alcanzadas por cinco estudiantes humanos en la IMO 2025. La competencia dejó en claro que, en matemática avanzada, el pensamiento abstracto y la elaboración de pruebas estructuradas siguen siendo terreno humano. Esto reafirma que, por ahora, el intelecto humano conserva su supremacía en razonamiento matemático profundo.