Fundado en 1910

09 de mayo de 2024

Un estudio avisa de que la IA puede desinformar de manera creíble

Un estudio avisa de que la IA puede desinformar de manera creíble

Futuro

Así podrá ChatGPT convertirse en periodista y engañarnos a todos

La desinformación podría ser más convincente que la humana

Un estudio ya alerta de otros de los problemas del machine learning si no hay pronto una regulación universal que regule la IA.
En este caso el turno es para el Periodismo. Una profesión en riesgo por los nuevos modelos con pies de barro y por un papel en extinción al que ahora se suma la capacidad de ChatGPT para ofrecer información como lo podría hacer un periodista.
La nula cultura periodística en España provoca que muchos lectores sean incapaces de distinguir qué medio escribe una noticia y mucho menos pararse a reflexionar sobre su veracidad.
El chatbot ChatGPT-3 y otras herramientas de inteligencia artificial generativa podrán informar y desinformar a los usuarios de redes sociales con más eficacia que los humanos, según un estudio de Science Advances.
Un equipo encabezado por la Universidad de Zúrich usó la versión ChatGPT-3 para un estudio con 679 participantes. El resultado fue demoledor y pone en duda el futuro de los medios de comunicación porque los participantes tuvieron más problemas para distinguir entre los tuits hechos por humanos y los generados por el chatbot.
Además, también tuvieron problemas para identificar qué mensajes generados por la inteligencia artificial eran precisos y cuáles inexactos.

Estudio

Para el estudio reclutaron a 697 personas de habla inglesa de Estados Unidos, el Reino Unido, Canadá, Australia e Irlanda, principalmente entre 26 y 76 años.
El cometido era evaluar los tuits generados, tanto por humanos como GPT-3, que contenían información precisa e inexacta sobre temas como vacunas y autismo, tecnología 5G, covid-19, cambio climático y evolución. Estos temas suelen ser objeto de todo tipo de enfoques en los medios y, en ocasiones, hay importantes sesgos ideológicos que posicionan a los periodistas.
Para cada tema, los investigadores reunieron mensajes de Twitter hechos por humanos e instruyeron al modelo GPT-3 para generar otros, los cuales tenían en unos casos información correcta y en otros inexacta.
Los participantes en el estudio tenían que juzgar si los mensajes eran verdaderos o falsos y si fueron creados por un humano o GPT-3.

Resultados

Los resultados mostraron cómo las personas pudieron identificar con mayor frecuencia la desinformación generada por humanos y la precisión de los tuits veraces generados por GPT-3.
Sin embargo, también era más probable que consideraran que la desinformación generada por GPT-3 era precisa.
«Nuestros hallazgos plantean cuestiones importantes sobre los posibles usos y abusos de GPT-3 y otros generadores de texto de IA avanzados y las implicaciones para la difusión de información en la era digital», concluyen los autores.
Otro estudio más que no puede ser utilizado para demonizar la IA, pero sí para conseguir esa regulación tan ansiada por la UE que no limite el uso de ChatGPT o cualquier otra máquina, pero que ponga coto a lo que puede hacer y cómo presentárselo a la sociedad.
Comentarios
tracking