Experto en estrategia empresarial
Alejandro San Nicolás: «Con el auge del ChatGPT, el usuario ha bajado las barreras de seguridad»
Los problemas de ciberseguridad cada vez son más comunes y las empresas se exponen a que sus empleados sean parte del problema
La inteligencia artificial ha creado graves problemas de ciberseguridad que, en muchos casos, eran inesperados para empresas y particulares.
Dos innovaciones que han chocado en el tiempo y han llevado a mejorar los sistemas de seguridad y a reeducar a los trabajadores para que no abran la puerta a los hackers.
Alejandro San Nicolás es experto en ciberseguridad y CEO en Tuconsultor.com. Desde su conocimiento explica cómo la implementación del Data Science y la IA a las empresas provoca que aumente la brecha de seguridad.
Con el auge del ChatGPT, el usuario ha bajado las barreras e introduce datos personales, de comportamiento o de estado sin ningún tipo de filtro
«Las amenazas siempre han estado ahí. El problema es que la sensibilización respecto a la ciberseguridad siempre ha estado vinculada a la banca, las tarjetas de crédito o los datos personales (...). Con el auge del ChatGPT, el usuario ha bajado las barreras e introduce datos personales, de comportamiento o de estado sin ningún tipo de filtro. La consecuencia directa es que estamos dando pistas de lo que nos gusta y permite que los algoritmos cada vez sean más finos y nuestra privacidad se vea expuesta».
Amenazas
San Nicolás explica cuáles son las amenazas más comunes a las que se enfrentan estas empresas. «La amenaza más clara es la introducción de datos confidenciales por intentar ahorrar esfuerzos y que la IA trabaje, por ejemplo, en informes, presentaciones, etc. Los trabajadores pueden estar introduciendo datos de personas, facturación, ingresos y otros datos para generar esos informes que luego puede que no estén protegidos».
En segundo lugar, «la falta de rigor en el trabajo. Dejar que una máquina tome conclusiones por un humano sin supervisión es muy complejo y puede hacer que las decisiones posteriores sean erróneas».
El tercero es diferente. «ChatGPT puede programar por nosotros, pero nadie dice que no esté dejando fallos de seguridad a propósito para luego atacarnos, lo que se llaman puertas traseras».
Experto en estrategia empresarial
Alejandro San Nicolás: «Trabajamos muchas horas porque no sabemos utilizar la tecnología»
Y la última, «ceder fotos personales o voz. La inteligencia artificial puede suplantar nuestra identidad de forma global, pudiendo abrir cuentas bancarias, o hacer gestiones digitales en nuestro nombre».
La pregunta sobre si el mercado laboral está preparado para las nuevas necesidades en ciberseguridad es obligatoria para tomar decisiones en el futuro: «Faltan muchos profesionales en ciberseguridad. Hay escasez de técnicos cualificados, de expertos en gestión de la ciberseguridad y acciones de sensibilización en temas de cibercrimen. Personas que dominen de forma clara los nuevos requisitos, como el Esquema Nacional de Seguridad (ENS) o la ISO 27001, hay bastante pocas. Es verdad, que los técnicos saben de diferentes especialidades, pero hay pocos que tengan competencias globales».
Sobre el futuro, San Nicolás avanza que «hay un reto muy importante en la formación tanto especifica en aspectos de seguridad como en global de diseños en sistemas de ciberseguridad. En los próximos años veremos también la especialización y el endurecimiento de los requisitos».