Fundado en 1910
La IA avanza para adaptarse a entornos complejos y cambiantes

La IA avanza para adaptarse a entornos complejos y cambiantesFreepik

Al detalle

Las primeras normas de la Ley de Inteligencia Artificial entran en vigor en Europa

La Agencia Española de Supervisión de la Inteligencia Artificial (AESIA) podrá multar a los operadores de sistemas prohibidos con hasta 35 millones de euros

El pasado año, concretamente en el mes de agosto, entró en vigor la Ley de Inteligencia Artificial (IA) en todos los países miembros de la Unión Europea (UE). De hecho, es la primera ley integral del mundo sobre IA y tiene como objetivo mejorar el funcionamiento del mercado de la novedosa tecnología, introduciendo límites en su desarrollo y utilización.

En este sentido, la norma habla de «promover la adopción de una inteligencia artificial (IA) centrada en el ser humano y fiable, garantizando al mismo tiempo un elevado nivel de protección de la salud, la seguridad y los derechos fundamentales consagrados en la Carta de los Derechos Fundamentales de la Unión Europea».

A partir de ahora, se prohíben una serie de sistemas de IA clasificados como de «riesgo inaceptable», con el fin de salvaguardar los derechos fundamentales y la seguridad de las personas. Al mismo tiempo, todas las empresas deben cumplir con las restricciones establecidas para evitar posibles sanciones.

En la lista de estos sistemas se incluyen herramientas de inteligencia artificial «manipuladoras», sistemas de puntuación social, reconocimiento facial en tiempo real y otras formas de identificación biométrica que clasifican a las personas según su raza, vida sexual, orientación sexual y otros atributos.

Prácticas prohibidas

Según establece el artículo 5 del capitulo II de la Ley de Inteligencia Artificial, estas son todas las prácticas prohibidas:

  • Las técnicas manipuladoras o engañosas que se sirven de «técnicas subliminales que trascienden la conciencia de una persona o de técnicas deliberadamente manipuladoras o engañosas». Estas técnicas tienen el objetivo de «alterar de manera sustancial el comportamiento de una persona o un colectivo de personas».
  • Los sistemas de IA que explotan alguna vulnerabilidad de una persona física o un determinado colectivo de personas derivadas de su edad o discapacidad.
  • Los sistemas para «evaluar o clasificar» a personas físicas o a colectivos de personas durante un período determinado de tiempo atendiendo a su comportamiento social o a características personales o de su personalidad.
  • El uso de un sistema de IA para realizar evaluaciones de riesgos de personas físicas con el fin de valorar o predecir el riesgo de que una persona física cometa un delito basándose únicamente en la elaboración del perfil de una persona física o en la evaluación de los rasgos y características de su personalidad.
  • La puesta en marcha de sistemas de IA que «creen o amplíen bases de datos de reconocimiento facial mediante la extracción no selectiva de imágenes faciales de internet o de circuitos cerrados de televisión».
  • El uso de sistemas de IA para «inferir las emociones de una persona física en los lugares de trabajo y en los centros educativos».
  • El uso de sistemas de categorización biométrica que clasifiquen individualmente a las personas físicas sobre la base de sus datos biométricos para deducir o inferir su raza, opiniones políticas, afiliación sindical, convicciones religiosas o filosóficas, vida sexual u orientación sexual.
  • El uso de sistemas de identificación biométrica remota «en tiempo real» en espacios de acceso público.

Según ha explicado Ibán García, miembro del equipo negociador para la aprobación de la Ley de IA, a Maldita.es, «esta regulación busca abarcar toda la cadena de valor, aunque también menciona el principio de proporcionalidad a la hora de determinar sanciones. La responsabilidad principal recae sobre los desarrolladores, proveedores y distribuidores de los sistemas de IA, más que en los usuarios finales».

Finalmente, respecto a las sanciones por incumplir estas medidas, aclara que «los usuarios individuales o empresas que utilicen un sistema prohibido podrían enfrentarse a sanciones si conscientemente emplean un sistema de IA que saben está prohibido o que no cumple con las regulaciones. Sin embargo, los usuarios finales que no cuentan con conocimientos técnicos o que no son responsables directos de la comercialización del sistema suelen tener una responsabilidad limitada».

comentarios
tracking