top of page

El uso de las IA y el descenso en la calidad literaria

  • Rosa Burgos Ruiz
  • 6 mar 2024
  • 5 Min. de lectura

De un tiempo a esta parte las inteligencias artificiales están ganando terreno en los sectores más artísticos de la población. De momento la preocupación recae principalmente en el arte gráfico pero ya suenan noticias como la prohibición de Amazon de subir más de tres libros al día, ya sea por la IA o por otros libros que se han estado publicando con otras temáticas que también saturaban el mercado, como calendarios o libros de colorear. Todo este revuelo me ha llevado a sentir curiosidad por una herramienta que hasta ahora yo solo he utilizado para hacer búsquedas en Google.

 

Empecé mi experimento comprobando si era capaz de seguir instrucciones sencillas. El New York Times tiene una sección de juegos, entre los que se encuentra Spelling Bee, el objetivo del inicio de nuestro experimento. Se trata de un panal con seis letras en gris y una en amarillo en el centro, haciendo así un total de siete. El objetivo de este juego es combinar las letras para obtener el mayor número de palabras posible, pero la dificultad real reside en que todas esas palabras deben llevar la letra central amarilla. He probado a resolver el puzle utilizando ChatGPT 3.5 y solo puedo decir que no ha sido útil. No era capaz de respetar las instrucciones y la letra central aparecía solo en unas cuantas palabras, a pesar de que especificara en mis instrucciones que debe utilizarla siempre. No hablemos ya de mantener la coherencia a través de las iteraciones, tampoco podía continuar añadiendo palabras pasados un par de intentos, se saltaba el resto de las instrucciones y entraba en bucle.

 

Pese a esta demostración decidí que debía darle una oportunidad más, sobre todo a raíz del revuelo de Amazon que he comentado al inicio de este artículo. Aquí entra en juego mi máster de escritura creativa. Una de las tareas que nos propusieron tenía una serie de instrucciones para dificultar el proceso creativo y ponernos a pensar. Mi tarea original, la que entregué para ser evaluada y realizada íntegramente por mí obtuvo una calificación de 10 así que, ayer, decidí poner a prueba a esta IA generativa contra mis propias capacidades. Le alimenté el escenario que yo había elegido para mi historia y las instrucciones recibidas. El resultado fue hilarante, pero antes de llegar a eso es necesario analizar todas las partes, aunque al final de esta publicación podréis ver también ambas historias



para compararlas en conjunto vosotros mismos.

 

Las indicaciones que recibió ChatGPT y no supo seguir son las siguientes: Necesito que escribas un texto de 500 palabras en el que construyas la vida de un personaje durante una semana. Es muy metódico, siempre hace las mismas acciones repetidas todos los días y al final le sucede algo sorpresivo que interrumpe su rutina. Tienes que seguir las instrucciones siguientes:

1. La primera frase debe sorprender al lector.

2. El narrador no utiliza ninguna información que no sea visible.

3. Debe contener la descripción de una fruta.

4. No puedes emplear la palabra «no».

 

El número de palabras sí lo respetó, utilizó solo 442 para escribir el texto, pero es aceptable porque si la historia funciona con un poco menos de las 500 máximas, es mejor no estropearla añadiendo más. Sin embargo, en cuanto entré a evaluar los puntos clave, pude observar que se saltaba o no respondía correctamente a tres de los cuatro mencionados. Su primera frase no sorprendía a nadie, de hecho es bastante más similar al “Érase una vez” de los cuentos clásicos, pero puedo admitir que un ordenador no sea capaz de comprender un concepto tan emocional como la sorpresa.

 

La descripción de una fruta, para que fuera correcta, debería tener sentido, ser un elemento si no esencial al menos importante en la trama. En mi historia, el personaje principal desayuna siempre un pomelo que corta en mitades exactas. Está pensada para que, a través de la descripción del pomelo, entiendas lo importante que es la precisión y la repetición de acciones para él y conozcas mejor su historia. En el trabajo desarrollado por la IA, no solo aparecen múltiples frutas, que no es per se un error porque puede enfocarse desde muchos ángulos, sino que son añadidos sin peso en la historia, completamente inverosímiles.

 

El uso de la palabra “no” era sencillo de respetar. No hay nada abstracto en esa indicación y es bastante sencillo programar algo para que omita una palabra. Pensaba que esta iba a ser una de las que respetara, pero también decidió saltársela. Esta palabra aparece dos veces en el texto. Es cierto que un ser humano podría haberlo hecho por error en una primera versión, pero estamos hablando de que ChatGPT sea capaz de escribir mejor que un humano y, visto lo visto, no parece el caso.

 

Finalmente, lo único que podemos decir que respetara es la petición de no utilizar información que no fuera visible. Esto supone que en un texto no pueda aparecer la técnica del monologo interior, pensamientos que no tienen por qué ser coherentes. Nuestra IA lo ha resuelto escribiendo su texto en tercera persona, alejándose de él y limitándose a describirlo. Es un narrador omnisciente que no tiene una opinión muy formada y aparece solo para dar su toque en la reflexión final del relato. Tengo que concederle este acierto, aunque suponga resolverlo del modo narrativo más simple que podía escoger.

 

No voy a hacer excesivas comparaciones con mi propio texto porque creo que no soy objetiva, pero yo decidí en su momento resolverlo de otra forma. Además de la fruta como elemento para describir su carácter, mi oración inicial fue “He muerto esta semana”, de lo que intuimos ya que nos habla su espíritu y, la oración final, está construida para dar un cierre circular a la historia, en consonancia con su inicio: “Mi muerte fue solo una pequeña perturbación de la semana.” Por supuesto, tampoco utilicé información no visible, aunque elegí el reto de narrar en primera persona la historia, lo que puede derivar, casi sin querer, en un monólogo interno en el que el personaje reflexione acerca de sus motivaciones. La palabra “no” ni está ni se la espera en mi texto, porque para facilitarme la vida, lo concebí directamente intentando evitarla a toda costa.

 

¿Dónde quiero llegar con todo esto? Las IA generativas pueden ser una herramienta y, quizás, algún día puedan llegar incluso a sustituirnos, pero de momento son solo un programa que falla tanto o más que una escopetilla de feria. Son modelos predictivos de lenguaje, no pueden crear algo original, entre otras cosas porque nosotros mismos somos incapaces de definir el concepto de originalidad sin lugar a dudas. Sin embargo, si creéis estar seguros de su definición, os recomiendo leer a T.S. Elliot y a otros muchos teóricos de la literatura que, pese a su gran bagaje cultural y trabajo literario, no llegaban a ponerse de acuerdo. La chispa de la creación humana es algo que nos queda muy lejos de comprender a nosotros mismos, más aún de ser capaces de enseñarlo a una máquina que, a fin de cuentas, responde a una serie de algoritmos impresos en un código.


De momento, el único peligro que supone el uso de IA es, a mi modo de ver, una decadencia en la calidad literaria. No podemos evitar o prohibir que personas que hayan querido escribir un libro pero carecieran de los conocimientos y habilidades necesarias para hacerlo se aprovechen de esta nueva herramienta para sus propósitos, con lo que esto supone una vez esas historias sin calidad y sin las revisiones adecuadas, salgan al mercado. Como escritores profesionales, puede ser una ayuda en cuando a la generación de ideas, pero requiere, a mi juicio, tal nivel de trabajo para pulir no solo los errores de redacción sino de cohesión y, más importante aún, de verosimilitud, que no resulta rentable dedicarle ese tiempo. Es quizás una situación análoga a aquella que encontrábamos en el colegio, el tiempo dedicado a crear la chuleta perfecta e indetectable resultaba más eficiente si lo dedicábamos a estudiarlo.



Amplía las imágenes para leer ambas historias


Comentarios


bottom of page