Fundado en 1910

02 de mayo de 2024

Pantallazos de publicaciones en TikTok, Twitter y Telegram relacionadas con la invasión rusa de Ucrania

Pantallazos de publicaciones en TikTok, Twitter y Telegram relacionadas con la invasión rusa de Ucrania

471 días de guerra en Ucrania

La inteligencia artificial remata los crímenes de guerra en Ucrania: elimina la evidencia de las redes

Empresas como Meta y YouTube realizan la moderación del contenido violento y «nocivo» con Inteligencia Artificial sin que ésta pueda distinguir la evidencia de crímenes o violaciones de DD.HH

La inteligencia artificial (IA) está siendo utilizada para borrar contenidos nocivos e ilegales a gran escala. Sin embargo, cuando se trata de moderar imágenes violentas relacionadas con guerras, los programas son incapaces de identificar lo que podrían ser evidencias clave que se deben preservar para demostrar crímenes de guerra y violaciones de los derechos humanos.
De acuerdo con una investigación de la BBC, pruebas de posibles violaciones a los derechos humanos en Ucrania están en riesgo de perderse al ser eliminadas por los programas de IA de las empresas tecnológicas.
Las empresas propietarias de las redes sociales están eliminando vídeos de hechos violentos o sangrientos de la guerra en Ucrania sin ser archivados antes, a menudo utilizando inteligencia artificial, obviando de esta manera que estas imágenes pueden ayudar al enjuiciamiento de los perpetradores de estos crímenes.
Meta y YouTube afirman en su política de moderación que su objetivo es «equilibrar sus obligaciones de informar y de proteger a los usuarios de contenidos nocivos». Sin embargo, Alan Rusbridger, que forma parte del Consejo de Supervisión de Meta, dijo al medio británico que la industria está siendo «demasiado cautelosa».
Ihor Zakharenko, antiguo periodista especializado en turismo, se topó con este problema en Ucrania. Desde el inicio de la invasión rusa ha estado documentando ataques a civiles. El periodista filmó los cadáveres de al menos de 17 personas dentro de vehículos calcinados cuando intentaban huir de la invasión.
Zakharenko quiso colgar los vídeos en internet para que el mundo viera lo ocurrido y contrarrestar la versión del Kremlin. Pero cuando los subió a Facebook e Instagram fueron retirados rápidamente.
La BBC subió las imágenes de Zakharenko a Instagram y YouTube utilizando cuentas falsas. Instagram retiró tres de los cuatro vídeos en menos de un minuto. Al principio, YouTube aplicó restricciones de edad a los mismos tres, pero 10 minutos después los retiró todos.
El examen de la UE mostró que la eliminación de discursos de odio se redujo en Facebook y YouTube

Facebook y YouTube encargan su «moderación» a la IA que realiza una eliminación indiscriminada de material gráfica de la guerraArchivo

Los investigadores del medio británico lo intentaron de nuevo, pero los vídeos no se cargaron. La firma rechazó una solicitud para restaurar los vídeos, pese a alegar que incluían pruebas de crímenes de guerra.
«Puedes ver que han desarrollado y entrenado a sus máquinas para que, en el momento en que detectan algo que parece traumático, lo retiren», dijo a la BBC Rusbridger antiguo redactor en jefe del diario londinense The Guardian.
«Creo que la siguiente pregunta para ellos es cómo desarrollamos la maquinaria, ya sea humana o artificial, para tomar decisiones más razonables», añadió Rusbridger.

YouTube: «No somos un archivo»

YouTube y Meta sostienen que dentro sus excepciones de eliminación inmediata de imágenes gráficas están las de la guerra por considerarse de interés público, de tal manera que los contenidos que normalmente se retirarían pueden mantenerse en línea con visualización restringida a adultos.
Los representantes de Meta explicaron a la BBC que responden «a las solicitudes legales válidas de los organismos encargados de hacer cumplir la ley de todo el mundo» y «seguimos explorando nuevas vías para apoyar los procesos internacionales de rendición de cuentas (…) en consonancia con nuestras obligaciones legales y de privacidad».
YouTube, por su parte, declaró que, aunque tiene excepciones para el contenido gráfico de interés público, la plataforma no es un archivo.
«Las organizaciones y activistas de derechos humanos, investigadores, periodistas ciudadanos y otras personas que documenten abusos de los derechos humanos (u otros posibles delitos) deben observar las mejores prácticas para asegurar y preservar su contenido», precisó la firma.

Urge crear un sistema formal para recopilar y almacenar de forma segura los contenidos eliminados

Los defensores de los derechos humanos afirmaron que urge crear un sistema formal para recopilar y almacenar de forma segura los contenidos eliminados. Esto incluiría la conservación de metadatos para ayudar a verificar el contenido y demostrar que no ha sido manipulado.
«Necesitamos crear un mecanismo que permita conservar esa información para posibles ejercicios de rendición de cuentas en el futuro. Las plataformas de medios sociales deberían estar dispuestas a llegar a acuerdos con los mecanismos de rendición de cuentas de todo el mundo», afirmó Beth Van Schaak, directora de la Oficina para la Justicia Penal Global de Estados Unidos.
Comentarios
tracking