Fundado en 1910

29 de marzo de 2024

.

PxHere

Así puede ChatGPT ayudar a los delincuentes

Europol publica un informe sobre la posible explotación de este tipo de sistemas de inteligencia artificial para actos de ciberterrorismo, fraude o desinformación, entre otros

Es una de las grandes preocupaciones recientemente declaradas por uno de sus creadores, Sam Altman. Desde su lanzamiento, el debate abierto en torno a ChatGPT incide, entre otras cosas, en los posibles usos perversos que se puedan hacer de la herramienta, gratuita y universal desde su nacimiento. Y sobre eso, precisamente, advirtió este lunes Europol en un informe de la posible explotación de este tipo de sistemas de inteligencia artificial por parte de los delincuentes.
Para la organización policial europea, modelos de lenguaje extenso como ChatGPT tienen un «lado oscuro» y suponen un nuevo desafío para la aplicación de la ley. Porque, además de procesar y generar texto similar a una persona, responder preguntas sobre una variedad de temas, traducir texto, chatear, generar contenido nuevo y producir código funcional, estas IA –dicen– pueden también facilitar actividades delictivas que van desde ayudar a los delincuentes a permanecer en el anonimato hasta delitos específicos, como el terrorismo y la explotación sexual infantil.

Áreas de preocupación

Entre las múltiples áreas que despiertan inquietud, la organización destaca tres:
1.- Fraude y suplantación de identidad
La primera es su forma de facilitar las tareas de fraude, suplantación de identidad e ingeniería social, puesto que la capacidad de ChatGPT para redactar textos muy auténticos cambia las reglas del juego: el phishing más básico era fácil de detectar dado que usaba mensajes y correos llenos de errores gramaticales y ortográficos, pero ahora es posible hacerse pasar por una organización o individuo de manera realista y con pocos conocimientos de inglés.
«Hasta ahora, este tipo de comunicación engañosa ha sido algo que los delincuentes tenían que producir por su cuenta. En el caso de campañas producidas en masa, las víctimas de este tipo de delitos a menudo podían identificar la naturaleza no auténtica de un mensaje debido a errores ortográficos o gramaticales obvios o su contenido vago o inexacto», señala Europol.
2.- Terrorismo, propaganda y desinformación
Con la tecnología artificial, estos phishing y fraude virtual se pueden crear de «manera más rápida, mucho más auténtica y a una escala significativamente mayor», y permiten «responder a mensajes en contexto y adoptar un estilo de escritura específico», alerta.
«Las capacidades de ChatGPT se prestan a una serie de posibles casos de abuso en el área del terrorismo, la propaganda y la desinformación. El modelo se puede usar para recopilar más información en general que pueda facilitar las actividades terroristas, como, por ejemplo, la financiación del terrorismo o el intercambio anónimo de archivos», dice.
Además, este tipo de aplicación permitiría a los usuarios «darle una credibilidad fuera de lugar, ya que ha sido generada por una máquina y, por lo tanto, posiblemente parezca más objetivo para algunos que sí fuera producido por un humano».
3.- Ciberdelincuencia
Junto al fraude y la desinformación, Europol destaca la ciberdelincuencia como tercer área de preocupación, puesto que ChatGPT no se limita a generar un lenguaje similar al humano, sino que también es capaz de producir código en varios lenguajes de programación distintos, con una variedad de resultados prácticos en cuestión de minutos ingresando las indicaciones correctas en la página web de esta herramienta.
«Es posible crear herramientas básicas para una variedad de propósitos maliciosos. A pesar de que son solo básicas, esto proporciona un comienzo para el delito cibernético, ya que permite que alguien sin conocimientos técnicos explote un vector de ataque en el sistema de una víctima», subraya la agencia en su informe.
Las medidas de seguridad que impiden que ChatGPT genere un código con posible uso malicioso solo funcionan si la herramienta entiende lo que está haciendo, pero si se le dan indicaciones que se dividen en pasos individuales, es «trivial eludir estas medidas de seguridad».
Un usuario con conocimientos más avanzados también puede explotar las capacidades mejoradas de ChatGPT para perfeccionar aún más o incluso automatizar modus operandi sofisticados de los ciberdelincuentes.

Temas

Comentarios
tracking