Fundado en 1910
reflexiones sobre la iaDomingo Pacheco

No seamos monos con ballestas

Las potencialidades de la IA artificial se están desarrollando a un ritmo vertiginoso, pero ¿hasta qué punto nos hemos parado a pensar sobre las consecuencias del uso de estas potencialidades desarrolladas?

​«Formarse en IA no es solo una inversión estratégica, sino una necesidad», la universidad ante su gran reto

Actualizada 04:30

El otro día me abordó un recuerdo que bien puede abrir este artículo en el que seguimos reflexionando acerca del uso de la Inteligencia Artificial (en adelante, IA). Recordé un spot publicitario de hace algunos años, que en su momento generó un impacto notable en la sociedad (bien por lo ingenioso de los publicistas, bien porque en ese momento la única caja tonta era la televisión y era punto de referencia común para la distracción). El mencionado anuncio presentaba a una persona conduciendo un coche que a su lado tenía a un mono que portaba una ballesta, y retransmitía las reflexiones interiores ante esta situación; era impredecible, y podemos imaginar el motivo. Un mono con una ballesta es tan hábil como impredecible. Nadie tiene dudas de que sabe cómo accionar el mecanismo que hace que el virote salga despedido hacia su objetivo; lo que no sabemos es si el mono, después de accionar el mecanismo, pretende que el impacto del virote tenga alguna consecuencia en particular. De ahí que, aunque podemos decir que el mono sabe hacer funcionar la ballesta, dudamos de que sea capaz de predecir las consecuencias de su acción.

Deberíamos preguntarnos acerca de las implicaciones del uso de la IA en los distintos ámbitos de acción humana

Y aquí es donde hace entrada el uso de la IA. Las potencialidades de la IA artificial se están desarrollando a un ritmo vertiginoso, pero ¿hasta qué punto nos hemos parado a pensar sobre las consecuencias del uso de estas potencialidades desarrolladas? No se trata de buscar a Skynet detrás de las IA generativas, al más puro estilo Terminator, pero sí que deberíamos preguntarnos acerca de las implicaciones del uso de la IA en los distintos ámbitos de acción humana. Por ejemplo, al buscar información sobre un tema y discernir acerca de su validez o veracidad, es un proceso obsoleto gracias a herramientas como ChatGPT. Sin embargo, en este proceso de investigación se aprenden e interiorizan criterios de selección de una manera que, a partir de ahora, ya no va a ser posible por la tentación de la efectividad propia de la IA. O, pongamos que tengo que escribir una carta para consolar a un amigo en un momento difícil, y decido encargárselo a una IA generativa; ¿hasta qué punto estoy siendo honesto con este amigo? ¿«hacer la carta personal» es poner palabras cercanas a nuestra jerga común, aunque el grueso de la carta se haya hecho a través de un algoritmo de complejidad incalculable? Creo que estas preguntas son necesarias para no dejar que sea el uso el que acabe dando respuesta anticipada a estas preguntas.

No nos engañemos pensando que, si nosotros damos instrucciones a la IA generativa y elegimos las palabras más adecuadas, el escrito va a ser más nuestro

Y lo que está en riesgo aquí no es el daño que podamos hacer a los otros o las catástrofes que podamos generar en el uso de la IA. Ciertamente, el peligro principal, a juicio del que escribe, es una disolución de la propia autenticidad. No nos engañemos pensando que, si nosotros damos instrucciones a la IA generativa y elegimos las palabras más adecuadas, el escrito va a ser más nuestro. Cuando pedimos a una IA generativa que formule una construcción textual acerca de un tema, el texto es de la IA, por mucho que nosotros le demos aprobación. Ahora bien, si pides un texto a la IA porque intuyes que tu expresión escrita es más pobre o peor estructurada que la suya, luego no te engañes al firmarlo, pensando que el que lo firma es el autor. Quizá nuestras imperfecciones son más esclarecedoras y comunicativas de lo que nuestro ego nos permite aceptar, y cuando fiamos nuestra comunicación a la IA, esto se pierde por el camino.

Estos son solo unos ejemplos de consideraciones que deberíamos realizar cuando hacemos uso de la IA, pero puede haber muchos más. Sin embargo, para que estos ejemplos aparezcan y se planteen preguntas a las que dar respuesta, hay un requisito ineludible: necesitamos parar y pensar. Si no hacemos esto, somos víctimas de nosotros mismos y nos dejamos llevar por los atajos más rápidos que encontramos a la hora de realizar nuestras tareas. Puede que, un día, descuidemos la calidad de nuestra comunicación y que otro día descuidemos el trato de la persona que tenemos al lado. Sin embargo, si nos preguntamos un poco, abrimos la puerta a reflexionar sobre aquello que vivimos, y a descubrir implicaciones en nuestras acciones que son más importantes de lo que parecen a simple vista.

Existen muchas perspectivas desde las que hacer un uso responsable de aquellos instrumentos que se presentan ante nosotros con un gran potencial

Por eso, este escrito solamente es una invitación a «pensar antes de usar». Existen muchas perspectivas desde las que hacer un uso responsable de aquellos instrumentos que se presentan ante nosotros con un gran potencial, pero de lo que se trata es de utilizar aquello que está a nuestro alcance haciéndonos cargo de las consecuencias de nuestro uso o, al menos, intentándolo. Porque, de lo contrario, el riesgo es enorme, porque podemos convertirnos en ese copiloto del anuncio que antes mencionaba que, aunque sabe accionar los mecanismos para que las cosas funcionen, no sabe qué puede ocurrir a continuación. Así que ¡no seamos monos con ballestas!

  • Domingo Pacheco es sacerdote diocesano de Valencia, Capellán y director de la Cátedra de Teología Joseph Ratzinger de la Universidad CEU Cardenal Herrera y Consiliario Diocesano de Juniors M.D. Licenciado en Teología Histórica y Máster en Ética y Democracia. Es, además, coordinador del Grupo de Reflexión sobre IA del área de Filosofía y Ética del CEU
comentarios
tracking