Fundado en 1910
El estado en el que quedó el Tesla tras la explosión

El estado en el que quedó el Tesla tras la explosión

Las 17 preguntas a ChatGPT que provocaron la explosión del Tesla en Las Vegas

El terrorista mantuvo una conversación con la IA para informarse de los explosivos a utilizar y dónde conseguirlos

Las autoridades han revelado que Matthew Livelsberger, un soldado en activo del ejército estadounidense, utilizó herramientas de inteligencia artificial, concretamente ChatGPT, para planificar la explosión de un Tesla Cybertruck frente al Trump International Hotel de Las Vegas el pasado Año Nuevo.

El incidente, que culminó con la muerte del atacante por suicidio, es ya un caso sin precedentes en Estados Unidos y plantea nuevas inquietudes sobre el uso de estas tecnologías en actividades delictivas.

ChatGPT

El sheriff Kevin McMahill, del Departamento de Policía Metropolitana de Las Vegas, confirmó en una conferencia de prensa que Livelsberger recurrió a ChatGPT para formular preguntas relacionadas con explosivos y detonaciones. «Tenemos evidencia clara de que usó esta herramienta generativa para planificar su ataque», señaló McMahill, quien calificó el hecho como un «momento preocupante» y un «cambio de juego» para las agencias de seguridad.

Tenemos evidencia clara de que usó esta herramienta generativa para planificar su ataqueKevin McMahillDepartamento de Policía Metropolitana de Las Vegas

De acuerdo con las investigaciones, Livelsberger realizó hasta 17 consultas específicas a través de ChatGPT sobre la cantidad de explosivos necesarios para causar una explosión. También buscó información sobre la compra de fuegos artificiales y la comparación de estos con otros materiales explosivos. Según el asistente del sheriff, Dori Koren, el atacante indagó sobre aspectos técnicos como la velocidad de una bala disparada y su capacidad para detonar los explosivos. Todo esto, en una conversación natural con la herramienta de OpenIA.

Primer caso

En el interior del vehículo, los agentes hallaron un documento de seis páginas que contenía lo que Koren describió como «una serie de agravios y una evolución constante de sus planes». Entre los textos, Livelsberger criticaba a la administración Biden, mencionaba recuerdos gráficos de su tiempo en combate y mostraba signos de problemas de salud mental que podrían estar relacionados con un trastorno de estrés postraumático (TEPT).

Este incidente marca el primer caso conocido en suelo estadounidense en el que una herramienta de inteligencia artificial desempeña un papel clave en la planificación de un ataque. Las autoridades consideran que este caso es «instructivo» para otras agencias de seguridad, dado el potencial uso indebido de estas tecnologías en el futuro.

«La colaboración con plataformas tecnológicas será fundamental para prevenir este tipo de incidentes», añadió McMahill, al tiempo que instó a las empresas de inteligencia artificial a implementar salvaguardas más estrictas.

comentarios
tracking