La Universidad de Valladolid propone profundizar en la autorregulación de la IA en las redacciones
Publica un informe junto a la Universidad portuguesa de Beira Interior donde advierte de la necesidad de recuperar la credibilidad ante la dificultad, cada vez mayor, de discernir la verdad
6 marzo, 2025

«Si estamos apostando por un Periodismo de soluciones, hagámoslo también con la Inteligencia Artificial. Formémonos. Veamos en qué puede ayudarnos. Y aprovechemos una era donde, si somos capaces de dominar la tecnología antes de que ella nos domine a nosotros, es posible que consigamos dar (de nuevo) un salto hacia adelante en una profesión que necesita recuperar la credibilidad. Sobre todo, porque pronto será difícil discernir lo que es verdad de lo que no lo es. Y ahí, siempre, debe haber un periodista vigilante». Con estas palabras arranca el estudio ‘Autorregulación de los medios de comunicación en el uso de la IA: limitación del contenido generativo multimodal y compromisos éticos de transparencia y verificación’ realizado por la Universidad de Valladolid y la Universidad de Beira Interior (Covillana, Portugal), que propone debatir y profundizar en la autorregulación de la Inteligencia Artificial (IA) en las redacciones y recuperar la credibilidad periodística.
Entre sus conclusiones, apunta a que gran parte de los medios de comunicación cuentan ya con normas internas sobre el uso de la IA en sus redacciones, priorizan la limitación del contenido generado automáticamente, la transparencia en su uso y la verificación de la información, pero con resultado desigual. El documento, llevado a cabo por los investigadores Pilar Sánchez-García, Alba Diez-Gracia, Ignacio Repilado Mayorga y Pedro Jerónimo, se basa en la investigación del análisis de 45 manuales de estilo y directrices internas de autorregulación publicados entre el 2023 y principios de 2025.
La investigación pone en manifiesto que hace falta profundizar en el debate y, especialmente, de analizar cómo los medios proponen regular o establecer pautas internas para los usos de la IA por parte de sus periodistas. No solo a cómo pueden incluir estas tecnologías en las redacciones sino también por los procesos de trabajo periodístico, que introducen nuevos desafíos al uso de la IA antes y después de su aplicación.
El análisis concluye que una gran parte de los medios restringe el uso de la IA generativa a tareas específicas y complementarias, como la transcripción, la traducción y la generación de resúmenes, principalmente bajo la supervisión del periodista. Además, prueba que este fenómeno de autorregulación es un fenómeno global que afecta a entidades tanto grandes como pequeñas. Y como en cuanto a las medidas de transparencia, gran parte de los medios de comunicación analizados no son claros a la hora de informar si lo que están leyendo es generado por IA o no.