Ya se habla de una IA que diseñará IA
Cuando la IA se programe sola: para el cofundador de Anthropic ya están «todas las piezas en su sitio»
Jack Clark, cofundador de Anthropic sostiene en su último boletín que ya están «todas las piezas» para automatizar gran parte del desarrollo de modelos. Una IA que diseña IA abre una nueva era llena de oportunidades y riesgos
En el boletín 455 de Import AI, Jack Clark sostiene que «los sistemas de IA están a punto de empezar a construirse a sí mismos». No es ciencia ficción, más bien un cambio de fase en cómo se desarrolla hoy la tecnología. Según el análisis de uno de los creadores de Anthropic, la industria ya dispone de los bloques necesarios para automatizar buena parte de la ingeniería que hay detrás de los modelos actuales, desde el diseño de arquitecturas hasta la búsqueda de hiperparámetros o la evaluación sistemática de resultados.
Clark basa esta conclusión en la observación de tres fuentes. Primero, los artículos que se publican en repositorios como arXiv o NBER; segundo, los productos reales que lanzan las grandes compañías y, tercero, la forma en que esas empresas están utilizando la propia IA para acelerar sus equipos internos. La fotografía que dibuja es la de una disciplina que ya no depende solo de ingenieros humanos y que empieza a apoyarse en «colegas sintéticos» capaces de explorar miles de variantes de un experimento mientras los investigadores humanos se centran en las decisiones estratégicas.
Automatizar la ingeniería
Clark distingue entre dos niveles. Por un lado, la automatización de la ingeniería de IA y, por otro, la automatización de la investigación de IA. En el primer nivel, su diagnóstico es tajante: «hoy la IA puede automatizar vastas franjas, quizá la totalidad, de la ingeniería de IA». Esto incluiría tareas tediosas pero críticas como refinar secuencias de datos, ajustar infraestructuras de entrenamiento o probar combinaciones de parámetros que ningún equipo humano podría abarcar en el mismo tiempo.
La gran incógnita está en cuánta investigación se puede automatizar, es decir, cuánta capacidad real tendrán estos sistemas para proponer ideas radicalmente nuevas y no solo repetir una y otra vez sobre lo conocido. Aun así, Clark apunta a un escenario en el que los modelos serán lo bastante «creativos» como para sugerir nuevas líneas de trabajo y refinar conocimiento existente para acortar el ciclo entre hipótesis, experimento y resultado. En la práctica, esto significaría que el cuello de botella dejaría de ser el número de investigadores y pasaría a ser la capacidad de supervisar y filtrar el volumen de propuestas generadas por la propia IA.
Máquinas que se optimizan solas
Una de las ideas más inquietantes del boletín es la noción de una «economía de máquinas» que aprende a mejorar su propio rendimiento de forma casi continua. Si los modelos pueden investigar nuevas arquitecturas, entrenar sucesores y desplegar mejoras sin tanta intervención humana, el resultado es un sistema tecnológico que se autooptimiza a un ritmo difícil de controlar.
Clark advierte de que la automatización de la I+D en IA puede convertirse en una fuente de «sorpresa estratégica» para países y empresas. Quien logre antes una cadena de desarrollo altamente automatizada tendrá una ventaja que se compone sola porque sus modelos serán mejores, lo que reforzará la propia capacidad de esos modelos para seguir investigando. Si hablamos de geopolítica, esto encaja con otras señales que el propio boletín recoge, como la carrera por hacer más eficiente el entrenamiento en chips chinos frente a formatos desarrollados en Occidente.
El papel del humano
En este futuro inmediato, el rol del experto cambia, pero no desaparece. Clark describe un escenario donde los investigadores humanos actúan como calibradores y supervisores de sistemas capaces de llevar a cabo investigaciones completas «de extremo a extremo», desde el planteamiento del experimento hasta la mejora concreta de un modelo. Un «pequeño grado de calibración experta» sería suficiente para que la IA ejecute el resto del trabajo a gran escala.
Un «pequeño grado de calibración experta» sería suficiente para que la IA ejecute el resto del trabajo
Eso plantea nuevos problemas porque más que escribir código, el reto será decidir qué objetivos se fijan, qué riesgos se aceptan y cómo se evalúan resultados generados por sistemas que ya no controlamos línea a línea. Clark encaja esta transformación dentro de una tendencia más amplia, que ya ha analizado en boletines anteriores, sobre el uso de agentes de IA que trabajan en segundo plano y sobre el riesgo de que una automatización mal diseñada desemboque en formas sutiles de «desempoderamiento» humano.
Clark habla de «todas las piezas ya en su sitio» para automatizar la producción de los sistemas actuales, y apunta a la posibilidad de ver I+D de IA totalmente automatizada antes del final de la década, apoyándose en tendencias de capacidad, productos en el mercado y experiencias internas en empresas punteras.
Clark habla de «todas las piezas ya en su sitio» para automatizar la producción de los sistemas actuales
La consecuencia es que el debate sobre la IA del futuro ya no puede limitarse a si los modelos serán más grandes o más hábiles conversando. La cuestión, según Clark, es qué ocurre cuando los propios sistemas empiezan a decidir cómo deben ser sus sucesores, quién controla esa cadena y cuánto margen de maniobra queda para regularla una vez que la economía de máquinas se ponga realmente en marcha. Esa es la advertencia que deja su último boletín: la próxima gran revolución de la IA podría suceder, literalmente, dentro de la propia IA.