La UE había logrado aprobar en 2024 el primer marco global que clasificaba los sistemas de IA por niveles de riesgo
Europa y su obsesión por la IA: la larga marcha de la ley que la UE quiso convertir en su sello de identidad
La Ley de Inteligencia Artificial de la Unión Europea acaba de vivir su mayor frenazo, tras años de debates, advertencias industriales y el empeño comunitario por supervisarlo todo
El camino de la Ley de Inteligencia Artificial de la Unión Europea —el ambicioso reglamento con el que Bruselas pretendía situarse como líder mundial en la supervisión tecnológica— ha estado marcado por avances, tensiones políticas y una obsesión constante por regular cada rincón del ecosistema digital. Ese impulso, casi convertido en seña de identidad europea se ha alterado cuando la Comisión ha propuesto frenar parte de la norma ante la evidencia de que ni la industria ni los Estados estaban preparados para cumplirla a tiempo.
El frenazo ha supuesto un giro de guion para una legislación que había sido presentada como el ejemplo internacional de cómo controlar el desarrollo de la IA sin frenar la innovación, algo impensable en el viejo continente. Tras años de negociaciones y todo tipo de borradores, la UE había logrado aprobar en 2024 el primer marco global que clasificaba los sistemas de inteligencia artificial por niveles de riesgo e imponía un entramado de obligaciones inéditas. Sin embargo, el propio espíritu regulador europeo —ese que se ha aplicado a cargadores, redes sociales, privacidad o biometría— terminó tropezando con la complejidad técnica del terreno que aspiraba a gobernar.
Inquietud social
La iniciativa arrancó en 2019 con un ramillete de directrices éticas impulsadas por un supuesto temor social a la automatización y a los usos opacos de la IA en la vida cotidiana. La Comisión Europea vio en esa preocupación la oportunidad de marcar su propio territorio en la revolución tecnológica. El 21 de abril de 2021 presentó una propuesta legislativa que buscaba ordenar el desarrollo de la IA bajo criterios de seguridad, transparencia y protección de derechos fundamentales.
La iniciativa arrancó en 2019 con un ramillete de directrices éticas impulsadas por un supuesto temor social
En la mente de los directivos estaba la idea de que si la tecnología transformaba el mundo rápidamente, Europa debía adelantarse con reglas estrictas. Esa obsesión reguladora volvió al escenario de Bruselas, pero ahora para asfixiar a la inteligencia artificial.
Negociaciones y presiones
A partir de la propuesta de 2021 comenzó el habitual recorrido comunitario. Parlamento, Consejo y Comisión negociaron durante años cada matiz de la ley. La presidencia española del Consejo en 2023 aceleró algunos puntos clave, mientras que la presidencia belga, en 2024, remató el texto que acabó votándose en marzo de ese año con 523 votos a favor, una amplia mayoría que celebró la aprobación como un hito histórico y con el histórico post de Thierry Breton, comisionado europeo.
Europa presumía de haber creado la primera regulación integral sobre IA del mundo. Un mensaje a los gigantes tecnológicos a los que se avisaba que si no se autorregulaban, Bruselas lo haría por ellos. El mismo mensaje de Breton a Elon Musk cuando cerró la compra de Twitter.
La arquitectura de la ley
El reglamento clasificó los sistemas de inteligencia artificial en cuatro niveles de riesgo, desde los mínimos hasta los altos, destinados a infraestructuras críticas, sanidad, educación o justicia. Precisamente estos últimos incorporaban las obligaciones más exigentes como auditorías, evaluación de impacto, supervisión humana y medidas para garantizar la fiabilidad técnica.
Para muchos analistas empezaba a asomar el proteccionismo de la UE
A ello se sumaron prohibiciones como ciertos usos de biometría y sistemas de vigilancia intrusivos que Bruselas consideraba incompatibles con los valores europeos. Para muchos analistas empezaba a asomar el proteccionismo de la UE, una visión que despierta recelos en la industria y que contrasta con la flexibilidad regulatoria de Estados Unidos o la expansión tecnológica de China y que Draghi se encargó de plasmar en su informe de septiembre de 2024 cuando habló de la pérdida de competitividad europea.
Durante todo el proceso, grandes tecnológicas y varios Estados miembros alertaron del riesgo de estrangular la innovación en Europa. La ley era percibida por algunos sectores como un corsé difícil de asumir en un momento de competencia feroz. La Comisión insistía en que no se trataba de frenar la innovación, sino de encauzarla, pero no logró convencer a las partes.
Noviembre de 2025: Europa pisa el freno
El 2025 marcó un antes y un después. La Comisión propuso retrasar hasta 2027 la aplicación de los artículos más estrictos relacionados con los sistemas de alto riesgo. La razón oficial es que la industria no estaba preparada, los estándares técnicos avanzaban más despacio de lo previsto y la supervisión requería mecanismos aún por definir.
En la práctica, el frenazo puso en evidencia el afán regulador europeo que había chocado con una realidad tecnológica más compleja de lo calculado. Algo así como la pasada de frenada con la idea de eliminar los coches de combustión por decreto en 2035. Aunque algunas partes del reglamento seguían vigentes —como la prohibición de prácticas inaceptables o la obligación de transparencia en modelos avanzados—, el núcleo más ambicioso quedaba temporalmente en suspenso.
El frenazo puso en evidencia el afán regulador europeo que había chocado con una realidad tecnológica más compleja de lo calculado
Más allá de su contenido técnico, la Ley de IA simboliza la voluntad europea de guiar la revolución digital bajo parámetros éticos y sociales. Ese impulso, que para algunos, es una virtud y para otros, una obsesión, ha moldeado la identidad reguladora de Bruselas en las últimas décadas. La cuestión ahora es si ese modelo será capaz de adaptarse a un escenario en evolución constante y con países que no ponen puertas al campo de la IA.
La UE aspiraba a liderar desde la regulación, pero la regulación, por sí sola, no garantiza liderar nada y menos el sector tecnológico. El futuro del reglamento dependerá de la capacidad europea para equilibrar su instinto vigilante con la flexibilidad que exige un sector en constante transformación.