Montaje de Carl Sagan, Stephen King y la aplicación de Grammarly
Cuando la inteligencia artificial suplanta a escritores como Stephen King o Carl Sagan
Una demanda colectiva acusa a la plataforma Grammarly de usar nombres reales de autores para avalar textos generados por IA sin su consentimiento
Con los escritores en pie de guerra contra la inteligencia artificial por el supuesto robo de sus obras, el caso de Grammarly muestra hasta qué punto puede ser invasiva la herramienta. Una demanda colectiva acusa a la plataforma de violar el derecho de publicidad, invadir la privacidad y respaldar falsamente con nombres reales de autores las sugerencias generadas por IA.
La empresa nació en 2009 como un conjunto de herramientas para identificar el plagio y ayudar a los estudiantes a perfeccionar su escritura. Desde sus orígenes en Ucrania pasó a alcanzar una valoración de 13.000 millones de dólares en 2021, haciendo ya uso de la IA. En agosto del año pasado, Grammarly comenzó a cavar su propia tumba: lanzó ocho agentes de IA para asistir en la escritura, entre ellos Expert Review (Revisión de un experto).
App de Grammarly
La herramienta ofrecía un análisis de texto redactado —y firmado— desde el punto de vista de un experto. También permitía que esas supuestas voces autorizadas añadieran comentarios sobre cómo mejorar la prosa. El proyecto se llevó a cabo sin la autorización de esas personas. Tampoco se pagaba por el uso de su imagen.
Las reseñas del agente de Grammarly aparecían firmadas por el novelista Stephen King, el astrofísico Neil deGrasse Tyson, el fallecido científico Carl Sagan, la periodista tecnológica Kara Swisher, el escritor William Zinsser —fallecido en 2015— o Casey Newton, fundador y editor del boletín tecnológico Platformer.
El escritor Benjamin Dreyer puso a prueba Expert Review y envió un texto en el que únicamente repetía lorem ipsum. Aun así, la herramienta produjo «consejos de escritura de Stephen King».
Los hechos ponen de relieve el debate sobre la apropiación intelectual con fines comerciales por parte de empresas de inteligencia artificial. Además, según experiencias de suscriptores del servicio (12 dólares al mes), el resultado era tan genérico que apenas ofrecía valor editorial distintivo.
Una demanda colectiva
Julia Angwin, periodista de datos especializada en el impacto social de la tecnología, encabezó las acciones contra Grammarly. La fundadora de The Markup detectó que la plataforma utilizaba su nombre y credenciales para respaldar sugerencias generadas por IA.
En ningún momento fue consultada, ni autorizó que su identidad se vinculara a recomendaciones automatizadas. «Grammarly me convirtió en editora de IA en contra de mi voluntad y lo odio», denunció en redes sociales. Por ello, presentó una demanda colectiva en el Distrito Sur de Nueva York.
Julia Angwin
Los demandantes sostienen que la empresa convirtió sus nombres e identidades profesionales en un producto comercial. Acusan a Grammarly de utilizar con fines lucrativos el nombre y la imagen de personas reales sin su consentimiento, de explotar su identidad de forma no autorizada y de inducir a los usuarios a creer que expertos reales avalan las sugerencias de la plataforma, cuando en realidad se trata de contenidos generados de forma automatizada.
Grammarly incluyó una advertencia en su página web en la que señalaba que los comentarios estaban «inspirados en expertos reales». Añadió además que las referencias a «expertos» tenían un carácter meramente informativo y no implicaban afiliación ni respaldo por parte de esas personas.
Sede de Grammarly
La compañía ha retirado la función de la plataforma, aunque sostiene que la decisión es anterior a la demanda. También ha pedido disculpas en una publicación en LinkedIn. Sin embargo, el tono empleado sugiere que evita reconocer de forma explícita el alcance de sus errores, en un contexto marcado por el proceso judicial en curso.
El caso puede sentar un precedente en el ámbito de la inteligencia artificial y abrir la puerta a un nuevo marco legal que redefina el modelo de negocio del sector. Episodios como este aceleran el debate sobre la necesidad de leyes de consentimiento para el uso de identidades en sistemas de IA y refuerzan la posibilidad de limitar o prohibir la simulación de personas sin autorización expresa.