Desde hace tiempo, las inteligencias artificiales eran ya sorprendentemente competentes a la hora de resolver problemas definidos: es decir, de responder al “qué” de una tarea dada. Pero ahora hemos dado un paso mucho más profundo: una IA ha aprendido no solo a hallar la solución, sino a diseñar su propio método para llegar hasta ella. Un reciente estudio de DeepMind, el laboratorio de IA de Google, revela precisamente esto.
En lugar de limitarse a seguir los algoritmos establecidos que las personas habían creado, este sistema ha sido capaz de inventar sus propios procedimientos —unas estructuras algorítmicas que, por su eficacia y elegancia, superan lo que los humanos habían alcanzado hasta ahora.
¿Cómo funciona Deepmind?
Para ponerlo en perspectiva: la diferencia ya no es únicamente saber que dos más dos son cuatro, sino comprender el acto de sumar desde su núcleo, reinventando aquello que considerábamos incontestable. El salto es cualitativo. Según indica el artículo, la IA de Google ha logrado redescubrir de forma autónoma un principio matemático clásico —el método de multiplicar números grandes de forma más eficiente, asociado al matemático Karatsuba—, pese a que ese principio fue descubierto por investigadores humanos (en este caso soviéticos) muchos años atrás. Lo relevante es que la IA lo “reinventó” sin que alguien se lo explicara, sin que hubiera sido específicamente enseñado.
Así, lo que llamábamos “optimización de un algoritmo” se transforma en “creación de un algoritmo nuevo y mejorado”.
Lo fascinante de este avance reside en que las mentes humanas suelen basar sus algoritmos en intuiciones, en patrones que hemos investigado, recorrido y afinado durante décadas. En cambio, esta inteligencia artificial carece de esos sesgos humanos; explora el espacio de posibles soluciones de modo exhaustivo y encuentra atajos o caminos que quizás nosotros no habíamos observado. Eso sugiere algo algo inquietante pero liberador: el conocimiento algorítmico desarrollado hasta hoy quizá sea solamente la punta del iceberg.
Imagínate que un motor de coche, mientras circula por la autopista, se rediseñara a sí mismo para fabricar pistones más eficientes; o que una cámara, mientras graba vídeo, transformara internamente el modo en que la luz incide sobre el sensor para conseguir imágenes más nítidas. Puede sonar a ciencia ficción —pero es justo lo que está ocurriendo: una IA capaz de reformular las reglas fundamentales de su funcionamiento interno.
Hoy ya no estamos solo ante máquinas que ejecutan instrucciones; estamos frente a máquinas que redefinen cómo se dan esas instrucciones.
Hasta ahora, las IA brillaban como herramientas de optimización: sabían hallar la ruta más eficiente, recomendar una canción que nos gustara, automatizar una parte del proceso de producción. Pero el nuevo sistema se apoya en aprendizaje por refuerzo —la misma técnica que en su momento empleó AlphaGo para vencer al campeón mundial en el juego de go—, y ha dado un salto cualitativo: ha diseñado algoritmos inéditos para tareas consideradas fundamentales en informática, como la “clasificación” de datos (ordenar conjuntos de información). Según el artículo, esos algoritmos han superado la eficiencia de los estándares existentes en la industria. Es como si, después de dominar el ajedrez, una IA no solo se convirtiera en la mejor jugadora, sino que inventara una pieza nueva que cambiara las reglas del juego.
¿Y esto significa que los programadores están en peligro de extinción? La respuesta es un no rotundo, aunque sí implica una transformación profunda. El ingeniero de software no va a desaparecer, pero su rol sí está cambiando. Ya no se tratará tanto de escribir línea por línea el código, sino de concebir problemas, supervisar sistemas, diseñar arquitecturas algorítmicas. El nuevo perfil será más parecido al de un director de orquesta que al de un músico solitario trabajando con partituras prefijadas.
Finalmente, las implicaciones de esta “meta-mejora” algorítmica son difíciles de cuantificar, pero enormes. Si los algoritmos básicos que sustentan desde los sistemas operativos hasta las bases de datos pueden ser mejorados por la propia IA, entonces podríamos ver una aceleración generalizada de la tecnología. Los procesos de compresión de datos podrían hacerse mucho más eficientes, lo que ahorraría ancho de banda y espacio de almacenamiento. Los cálculos científicos complejos podrían resolverse en mucho menos tiempo. Incluso los teléfonos y ordenadores podrían volverse más ágiles no porque cambie su hardware, sino simplemente porque el software que ejecutan ha sido diseñado —o re-diseñado— por máquinas que ya van un paso por delante.

Deja un comentario Cancelar respuesta