Varias personas son atendidas en la Agencia Tributaria para presentar la declaración
Declaración de la Renta 2025-2026
Un asesor fiscal alerta sobre usar ChatGPT en la Renta: «Eres carne de cañón para una estafa»
Advierte de los riesgos de compartir datos personales sensibles y cuestiona la práctica de subir el borrador a sistemas de inteligencia artificial
La irrupción de la inteligencia artificial (IA) en tareas cotidianas ha alcanzado también la gestión fiscal, aunque no sin generar inquietudes entre los profesionales del sector. Así lo expone José Ramón López, conocido en redes sociales como 'Tu blog fiscal', un experto tras conocer el caso de una contribuyente que decidió consultar su borrador de la declaración de la renta mediante ChatGPT.
El relato surge en un contexto informal. «A ver, un poco de cabeza y luego vosotros haced lo que os dé la gana, ¿vale? Pero ayer me junté con un grupo de amigos de mi pareja para cenar y salió evidentemente el tema de la declaración de la Renta», explica.
En ese momento, una de las asistentes comentó su experiencia: «Yo he cogido el borrador, lo he subido a ChatGPT y me ha dicho que no me puedo aplicar ninguna deducción». La respuesta del experto fue tajante. «Yo le dije, yo eso no lo haría en la vida», subrayó.
Su preocupación se centra en la naturaleza de la información contenida en el borrador fiscal. Según detalla, este documento incluye datos altamente sensibles como el DNI, el nombre completo, la dirección, la información de los hijos —incluidos sus documentos de identidad— y los ingresos del contribuyente. «Contiene un montón de datos personales tuyos que no los tendría que tener nadie», advirtió.
El peligro de las fugas de datos
En paralelo, señala una contradicción habitual en el comportamiento de los ciudadanos. «Muchas veces somos muy irracios a facilitar ciertos datos personales porque creemos que nos pueden estafar y demás», comenta, al tiempo que lamenta que esa cautela desaparezca cuando se trata de utilizar herramientas digitales sin valorar sus implicaciones.
El contraste con el ámbito profesional refuerza su argumento. «Nosotros cuando hacemos declaraciones de la Renta al mes, eliminamos cualquier tipo de dato personal», explica, destacando los protocolos de protección que se aplican en entornos especializados frente al uso doméstico de estas tecnologías.
El riesgo, concluye, no es teórico. Su advertencia final apunta a una posible brecha de seguridad: «Espero que ChatGPT no tenga nunca una fuga de datos porque es que como la tenga, eres carne de cañón para una estafa». Una reflexión que abre el debate sobre los límites del uso de la inteligencia artificial en cuestiones sensibles como la fiscalidad y la protección de datos personales.