Fundado en 1910

26 de abril de 2024

Irene Montero, durante un acto, este lunes en el Teatro Circo Price de Madrid

Irene Montero, durante un acto, este lunes en el Teatro Circo Price de MadridEFE / Juanjo Martín

Ministerio de Igualdad

Termostatos, semáforos o polígrafos: Irene Montero quiere acabar con el machismo de la inteligencia artificial

Su Ministerio ha publicado un informe preliminar sobre estas cuestiones con motivo de la visita de la dirigente de Unidas Podemos a una cumbre feminista en Nueva York que tuvo escaso éxito

La izquierda woke lleva un tiempo alertando de los supuestos sesgos que tiene la inteligencia artificial (IA), entre ellos, el de «género». Una suerte de algoritmos machistas que se aplican en cada vez mayores ámbitos de nuestra vida y algo por lo que no está dispuesto a tragar el Ministerio de Igualdad, que encabeza la dirigente de Unidas Podemos Irene Montero.
Así, con motivo de la visita realizada por Montero escasos días atrás a un evento feminista en Nueva York organizado por la ONU, el Departamento que lidera publicó, en colaboración con el Instituto de las Mujeres y financiado por el Fondo Social Europeo de la Unión Europea, el Informe preliminar con perspectiva interseccional sobre sesgos de género en la inteligencia artificial.
El documento, elaborado por Lorena Jaume-Palasí, una experta en IA fundadora de una ONG que se encarga de velar por que las nuevas tecnologías se usen sin injusticias, denuncia que la inteligencia artificial lleva a cabo una «discriminación interseccional de género», la cual define como la «expresión de una mirada patriarcal que intersecciona con otros tipos de discriminaciones como el racismo e 'ismos' colindantes como la islamofobia, la transfobia, la gordofobia o el edadismo».
Y dentro de esta coyuntura, «el carácter categorizante y encasillante de la discriminación convierten los sistemas algorítmicos en una tecnología de alto riesgo discriminatorio por naturaleza». Esta discriminación, según el informe de Igualdad, se da en distintos campos, como la salud, el empleo, la movilidad, la arquitectura o el trabajo policial.

Cáncer de mama y mujeres líderes

Sobre salud, hace referencia a un caso, fuera de nuestras fronteras, en el que se relata «la denegación hasta hace poco de pruebas genéticas para las mujeres negras con cáncer de mama bajo la suposición de que dichas pruebas solo eran necesarias para las mujeres blancas de diferentes ascendencias». Un ejemplo que, por supuesto, no aplica en España, ya que en nuestro país no existen registros de razas para su uso estadístico, al ser algo inconstitucional.
Respecto al empleo, el informe habla de un sistema utilizado para el reclutamiento laboral –en concreto, para detectar «líderes»– que combina datos de grupo estableciendo una media y del que critica que pierde precisión estadística al evaluar a los candidatos de forma personalizada. Al emplear autoevaluaciones, el documento señala que éstas «no solo muestran una autopercepción, sino que también contienen una percepción social implícita».
Y ahí se daría el machismo, ya que las mujeres presentan niveles más altos de aversión al conflicto y de dudas sobre sí mismas –que conllevan menos liderazgo–. Por el contrario, los varones «se correlacionan con niveles más altos de narcisismo y niveles más bajos de neuroticismo y agradabilidad». «De este modo, la discriminación no solo se acepta, sino que se justifica, se externaliza y se oculta bajo métricas algorítmicas digitales», denuncia.

El machismo de los semáforos

La autora del estudio critica que «ningún sistema tecnológico tiene un impacto 'neutral' de género» y apunta a los programas de control y coordinación de la red de semáforos, que, aunque «a primera vista neutrales», en realidad «pueden comportar un impacto discriminatorio de género edadista y capacitista». Esto se traduce, según el informe, en que mueran mujeres.
«Pese a que en términos absolutos fallecen más hombres como peatones que mujeres, en el ámbito urbano, en términos relativos, los hombres fallecen principalmente utilizando otros medios de transporte (63 % de los hombres fallecidos), mientras que las mujeres fallecen principalmente desplazándose a pie (77 %)», señala el documento de Igualdad.
Otro de los aparatos que funcionan mediante IA que el informe pone en el punto de mira es el de los termostatos inteligentes. Según apunta, un estudio de 2015 demostraba que la configuración de los mismos se había desarrollado en la década de los 60 del siglo XX, cuando «la era de las oficinas dominadas por los hombres». «Dicha fórmula no había sido revisada desde entonces y hace que las mujeres pasen frío en su entorno de trabajo, lo cual afecta a su confort y rendimiento laboral», añade.
Por último, el informe preliminar se refiere a un sistema de polígrafos para la detección automática de denuncias falsas de robos con violencia que utiliza la Policía Nacional y que, según afea el documento, analiza las expresiones y palabras claves según el texto redactado por el agente y después de ser entrenado con apenas 1.122 denuncias. En este último caso, el texto no precisa cuál sería la discriminación concreta hacia las mujeres.
Comentarios
tracking