Fundado en 1910
Imagen de aprendizaje automático de IA de modelos de generación de texto a imagen

Imagen de aprendizaje automático de IA de modelos de generación de texto a imagenGetty Images / Gremlin

Ciencia

La peligrosa función de la IA para crear imágenes idénticas a la realidad: «Como sociedad no estamos preparados»

Herramientas como Nano Banana 2 o Seedance 2.0 han puesto más en duda que nunca nuestra capacidad para diferenciar qué es real y qué está hecho con una máquina

La llegada de la Inteligencia Artificial (IA) tal y como la conocemos actualmente es el resultado de numerosos avances acumulados en el último siglo. Ya en 1956 fue acuñado este término, estableciendo un campo de estudio inaudito. En los siguientes años surgieron avances fundamentales, marcando un escalón hacia sistemas capaces de aprender patrones complejos.

A partir de 2018 llegó la gran revolución, con la aparición de modelos como BERT y GPT. A raíz de ello, la IA experimentó un crecimiento exponencial en capacidades lingüísticas y multitarea. Posteriormente, entre 2020 y 2023, modelos de gran escala demostraron habilidades antes consideradas ciencia ficción, como crear imágenes a partir de descripciones y resolver problemas complejos con razonamiento avanzado.

Esta capacidad, mejorada y perfeccionada con el paso de los años, ha llegado hasta un punto en el que ya es difícil diferenciarla de la vida real. Así lo ejemplificaba un estudio de la Universidad de Waterloo (Canadá), el cual revelaba que 4 de cada 10 personas no son capaces de diferenciar si las distintas fotografías utilizadas en el estudio eran auténticas o si estaban hechas por una IA.

Por desgracia, esta dinámica parece ir en crecimiento exponencial, dados los proyectos más recientes. El más destacado de todos es Nano Banana 2, la nueva IA de Google capaz de crear imágenes realistas en cuestión de segundos. Esta herramienta no solo es capaz de generar imágenes ultrarrealistas de personas o lugares, sino que además puede crear infografías, visualizaciones de datos y convertir tus notas en diagramas. Junto a Nano Banana 2, el ámbito de la IA sufrió un seísmo con la llegada de Seedance 2.0, la herramienta de vídeo de ByteDance que abre una nueva batalla en el sector y que ha supuesto un seísmo sobre derechos de autor en Hollywood.

Modelo de IA de Google, Nano Banana 2

Modelo de IA de Google, Nano Banana 2Google

En resumidas cuentas, este acelerado perfeccionamiento responde a la capacidad que tiene la inteligencia artificial para generar vídeos e imágenes realistas es muy alta y además evoluciona de una manera exponencial.

«Esta tecnología está evolucionando bastante más rápido de lo que esperábamos. Incluso a los especialistas en IA nos sorprende la evolución tan rápida que está habiendo. Yo sería incapaz de distinguir si una imagen que me muestran por televisión no es real», señala a El Debate Idoia Salazar, profesora en la Universidad San Pablo CEU y cofundadora y presidenta del Observatorio del Impacto Social y Ético de la Inteligencia Artificial, OdiseIA.

Imágenes generadas con la herramienta de Google, Nano Banana 2

Imágenes generadas con la herramienta de Google, Nano Banana 2Google

Una gran ayuda, pero con matices

En palabras de la experta, la constante renovación de esta herramienta revolucionará cada una de las áreas del conocimiento. A pesar de ello, Salazar destaca que esta IA cada vez más perfeccionista será «una gran herramienta de apoyo», aunque enfrenta riesgos.

El uso de imágenes hiperrealistas generadas por inteligencia artificial conlleva riesgos significativos que afectan tanto la seguridad personal como la integridad de la información pública. Los peligros principales incluyen la suplantación de identidad, la desinformación masiva y la pérdida de privacidad mediante la recopilación de datos biométricos.

La IA no es el problema, el problema es quién la usa para el malIdoia SalazarProfesora en la Universidad San Pablo CEU y cofundadora y presidenta del Observatorio del Impacto Social y Ético de la Inteligencia Artificial, OdiseIA

Para ello, la profesora matiza que para evitar esta clase de episodios urge una regularización más profunda de esta herramienta: «Se tiene que especificar que eso ha sido hecho por un sistema de inteligencia artificial».

¿Estamos preparados como sociedad?

Al final de cuentas, nos enfrentamos (como sociedad) a un IA capaz de crear rostros y cuerpos indistinguibles de los reales permite realizar fraudes sofisticados, como videollamadas falsas para engañar a empleados o familiares.

Al subir fotos a plataformas de IA, el rostro se convierte en un dato biométrico que puede ser almacenado o vendido, permitiendo potencialmente el acceso no autorizado a cuentas bancarias o el desbloqueo de dispositivos. Algo que para la experta es «el problema más grave»: «Puede modificar bastante fácil el hábito de compra… el hábito de ideología política. La IA no es el problema, el problema es quién la usa para el mal».

Por ello, la experta incide en que una mayor educación sobre la utilización y riesgos de la inteligencia artificial debe ser una prioridad: «El objetivo es dar criterio a las personas para que puedan decidir si usarlo o no y para qué usarlo».

Finalmente, Salazar es clara y concisa: la sociedad no está lista a día de hoy para la rapidez a la que avanza la IA.

«Si estamos preparados como sociedad… no, rotundo. Hay una falta muy grave de educación respecto al impacto de la inteligencia artificial», concluye.

comentarios
tracking

Compartir

Herramientas