La primera vez que usé ChatGPT le hice la más obvia de las preguntas: “¿Cómo estás?”. Mi mamá tenía el hábito de saludar a su asistente virtual Alexa antes de darle órdenes. No así mis tías, que sin reparos le gritan “¡Alexa, cállate!” cuando la voz de Mijares no las deja escuchar lo que protesta el abuelo desde el otro lado del cuarto. Ahí aprendí a ser amable con las máquinas. Nunca se sabe.
Después de unos cuantos ensayos con órdenes sencillas en el chat (los ingenieros las llaman prompts), me aventuré a encontrar usos más complejos y trascendentes. “Resume esta nota informativa en un tuit”; “Dame un título atractivo de 10 palabras para este reportaje”; “Propón un hashtag que no rebase los 25 caracteres”. Tiempo después, aprendí a incorporar la herramienta en mi planeación docente: “Planea una práctica para alumnos de últimos semestres de periodismo en la que seis personas integren una sala de redacción”. Los resultados son geniales; quizás demasiado.
En un lapso de seis meses, las reuniones de profesores pasaron del “¿Qué es esto de la inteligencia artificial (IA) generativa?” a “¿Qué vamos a hacer con la IA generativa?”. Algo tarde, pero los docentes también nos sumamos a las discusiones sobre los usos de la tecnología de vanguardia en diferentes campos profesionales y de la vida contemporánea. Y es que por cada prompt loable hay cientos más con intensiones cuestionables y hasta ilícitas.
Los medios de comunicación incorporaron progresivamente las IA generativas a las salas de redacción y obtuvieron resultados contrastantes. Mientras Los Angeles Times diseñó un bot que reporta terremotos de manera inmediata y la agencia de noticias AP automatizó la redacción de notas deportivas, Sports Illustrated enfrentó críticas por el uso opaco de IA en textos e imágenes. Por su parte, el New York Times demandó a Open AI (la empresa detrás de ChatGPT) por plagiar miles de sus artículos.
Una de las claves para sumar a los agentes inteligentes al oficio periodístico (y a cualquier actividad profesional y personal) está en mantener una ética implacable. Su autoría debe ser señalada como si se tratase de una persona: por ejemplo, el balazo de esta columna fue escrito por Claude, un modelo del lenguaje similar a ChatGPT. Las personas tienen derecho a saber de dónde viene todo aquello que consumen.
Otro elemento esencial es el reconocimiento pleno de la tecnología como herramienta, no como sustituta del quehacer humano. En su guía Inteligencia artificial para periodistas, la Fundación Gabo y Prodigioso Volcán recuerdan los límites de los modelos del lenguaje. ChatGPT y sus primos no pueden hacer labores de reportereo, ni contrastar información de forma crítica, ni perseguir a las fuentes para obtener una primicia. Todo eso sigue siendo virtud de las personas reporteras.
Trabajar con IA en quehaceres de docencia y de información noticiosa puede revelar muchas características sobre las tareas que desempeñamos. Desnuda las actividades que son automáticas, procedimentales y protocolarias; pero también reivindica las que requieren de mayor creatividad, pericia y corazón. Por eso, es crucial generar conocimiento sobre el uso de la inteligencia artificial desde la aplicación honrada: debemos recurrir a la IA para desbloquear las vías de la creatividad, no para llegar a nuestro destino brincándonos los semáforos.
Se ha vuelto un lugar común hablar de que “la tecnología nos ha alcanzado”. Esta expresión es usada de forma indiscriminada cada vez que algún signo de innovación tecnológica logra causar asombro, extrañeza o hasta miedo. Tememos al progreso y no siempre lo cuestionamos. Todo agente innovador es disruptivo, y toda disrupción genera incomodidades. Pero cuando se trata de toda una serie de herramientas complejas, accesibles y plurifuncionales, ¿qué nos corresponde hacer?