Fundado en 1910

Meta ha anunciado un despliegue de sistemas avanzados de inteligencia artificial para hacer cumplir sus normas de contenidoCONTACTO vía Europa Press

Meta reemplaza moderadores humanos por IA para vigilar Facebook e Instagram tras años de escándalos

El giro llega tras años de escándalos por su papel en conflictos como Myanmar, denuncias de moderadores traumatizados y países donde apenas ha habido supervisión real

Meta ha anunciado un despliegue de sistemas avanzados de inteligencia artificial para hacer cumplir sus normas de contenido y reducir el uso de grandes contratistas externos que hasta ahora llevaban el grueso de la moderación en Facebook e Instagram. La compañía sostiene que estos modelos serán capaces de detectar más rápido estafas, discursos de odio y material ilegal, y que solo reservará a los humanos las decisiones «más complejas y de mayor impacto», como apelaciones y casos que impliquen a las fuerzas de seguridad.

El movimiento llega, sin embargo, sobre un terreno minado por años de polémicas y acusaciones sobre la manera en que Meta ha gestionado el contenido en muchas partes del mundo. Organizaciones de derechos humanos denuncian desde hace tiempo que la empresa no solo ha moderado tarde y mal, sino que en algunos contextos su sistema ha contribuido a agravar conflictos ya de por sí explosivos.

El ejemplo más grave es Myanmar. Amnistía Internacional concluyó en 2022 que los algoritmos de Facebook «supercargaron» la difusión de odio contra la minoría rohinyá y contribuyeron a las atrocidades cometidas por el Ejército birmano en 2017, pese a que la compañía sabía (o debía haber sabido) el riesgo que suponía la dinámica de su plataforma. El informe, apoyado en documentos internos filtrados por la extrabajadora Frances Haugen, describe cómo el modelo de negocio, centrado en maximizar el engagement, permitió que discursos extremistas y desinformación prosperaran sin una respuesta proporcional.

Etiopía

Algo parecido ocurrió en Etiopía, donde las revelaciones de Haugen y las investigaciones posteriores mostraron que Facebook no tenía suficientes empleados con conocimiento de las lenguas locales para revisar contenidos en mitad de la guerra del Tigray. Los sistemas automatizados fallaban en detectar el odio en idiomas como el oromo o el amárico, y un informe interno admitía que grupos armados utilizaban la plataforma para incitar a la violencia mientras las medidas de mitigación eran claramente insuficientes.

Facebook no tenía suficientes empleados con conocimiento de las lenguas locales para revisar contenidos en mitad de la guerra del Tigray

En España, los moderadores subcontratados por Meta han denunciado tener que ver a diario cientos de vídeos con violencia extrema, abusos sexuales y suicidios en directo como parte de su trabajo de filtrado de contenidos para Facebook e Instagram. Un juzgado de Barcelona ha reconocido por primera vez que uno de estos revisores sufrió un trauma mental laboral tras exponerse de forma continuada a escenas de automutilaciones, decapitaciones, torturas y suicidios. Según los abogados que los representan, muchos de estos trabajadores presentan cuadros de estrés postraumático, ansiedad, insomnio y depresión, y acusan a la empresa y a sus subcontratas de haber sido plenamente conscientes del daño que causaba obligarles a enfrentarse a ese contenido explícito sin apoyo suficiente.

Kenia

En África, y especialmente en Kenia, Meta también se enfrenta a demandas colectivas de exmoderadores que denuncian haber sufrido traumas psicológicos severos por su trabajo. Una investigación en Nairobi apunta que más del 80 % de los evaluados en una de estas causas presenta síntomas de estrés postraumático grave tras años de exposición diaria a contenido violento, abusos infantiles y otros materiales extremos, sin apoyo médico adecuado.

Estos trabajadores acusan a Meta de beneficiarse de su «trabajo sucio» mientras se presenta como poco menos que un fantasma corporativo en el continente, sin asumir directamente la responsabilidad legal por sus condiciones. Según la organización británica Foxglove, cientos de moderadores fueron despedidos en bloque en Nairobi después de intentar organizarse para reclamar mejores salarios y apoyo psicológico, lo que ha dado lugar a una cascada de litigios que sigue abierta.

Paradójicamente, el giro hacia la inteligencia artificial se produce cuando estos casos aún no se han resuelto y cuando sigue habiendo países en los que la moderación, tanto humana como automática, es claramente insuficiente. Investigadores en políticas digitales señalan que, en mercados fuera de Estados Unidos y Europa, Meta continúa operando con plantillas mínimas, carencias de moderadores nativos y algoritmos poco entrenados para captar matices culturales, códigos locales o eufemismos usados para el odio.

Entender los cambios de código

La propia compañía admite que sus nuevos sistemas de IA cubrirán ahora idiomas que representan el 98 % de las personas conectadas, frente a los aproximadamente 80 idiomas que controlaba antes, e insiste en que esto permitirá entender mejor jerga, emojis y cambios de código. Pero la experiencia de países como Myanmar o Etiopía demuestra que la tecnología por sí sola no basta si no va acompañada de inversión en equipos humanos locales y voluntad de intervenir a tiempo cuando el contenido online alimenta conflictos reales.

El despliegue de la nueva arquitectura de moderación se solapa también con causas abiertas sobre la seguridad de los menores en redes sociales y la posible relación entre los algoritmos de Meta y problemas de salud mental en adolescentes. El modo en que la empresa combine ahora inteligencia artificial, supervisión humana y recursos en los países más vulnerables será decisivo para determinar si la nueva etapa corrige los errores del pasado… o agrava un historial ya muy cuestionado.