La Federación Internacional de Periodistas impulsa normas globales para un uso ético de la inteligencia artificial en el periodismo
La FIP y organizaciones internacionales reclaman transparencia, control humano y regulación clara para proteger la integridad informativa y los derechos profesionales
18 febrero, 2026

La Federación Internacional de Periodistas (FIP) ha publicado un conjunto de recomendaciones para regular el uso de la inteligencia artificial en el periodismo, con el objetivo de preservar valores fundamentales de la profesión y garantizar prácticas responsables ante la integración acelerada de tecnologías automatizadas. Consulta las recomendaciones AQUÍ.
Según las directrices, la inteligencia artificial no puede sustituir a los periodistas humanos y los contenidos generados por sistemas automatizados no deberían considerarse periodismo salvo cuando han sido verificados y supervisados por personas. Las recomendaciones destacan que la esencia de la profesión —como la comprobación de hechos, el sentido crítico y la relación con las comunidades informadas— no puede ser replicada por algoritmos sin intervención humana.
Entre las medidas propuestas, la FIP aboga por:
-
Etiquetar claramente cualquier contenido producido con apoyo de IA para informar a la audiencia sobre su origen tecnológico.
-
Implementar mecanismos que eviten los sesgos inherentes a los datos con los que se entrenan los modelos de IA, preservando la diversidad y precisión informativa.
-
Garantizar que las redacciones mantengan control editorial humano, asegurando responsabilidad por el trabajo publicado.
Las recomendaciones de la FIP se alinean con posiciones similares de otras organizaciones de periodistas. Por ejemplo, la European Federation of Journalists insta a que los profesionales otorguen su consentimiento explícito para que sus trabajos sean utilizados para entrenar sistemas de IA y exigen remuneración proporcional por ese uso, además de un control humano riguroso sobre las herramientas automatizadas.
El debate sobre normas éticas y regulaciones no se limita a los sindicatos profesionales. Consejos de prensa y organismos como la UNESCO han promovido principios de transparencia, responsabilidad editorial y etiquetado obligatorio de contenidos generados con IA, insistiendo en que la tecnología debe respaldar, no reemplazar, el juicio periodístico humano.
Otros avances se observan en iniciativas regionales: en Europa, países como Grecia han lanzado códigos éticos que exigen marcar claramente el uso de IA en contenidos periodísticos, con posibles consecuencias disciplinarias si no se respeta la transparencia.
La preocupación por el impacto de la IA en los medios también se refleja en estudios académicos recientes que muestran que la adopción de estas tecnologías plantea riesgos de sesgo, falta de transparencia y difusión de contenido sin claridad editorial, lo que podría erosionar la confianza pública si no se acompaña de marcos éticos sólidos.
La FIP ha señalado que estas recomendaciones buscan sentar bases para un diálogo global entre periodistas, empleadores y legisladores, con el fin de equilibrar los beneficios tecnológicos con la protección de la integridad profesional, los derechos laborales y la calidad informativa en un entorno dominado por sistemas automatizados.
Mientras las redacciones de todo el mundo exploran aplicaciones de IA para optimizar tareas rutinarias —como recopilación de datos o análisis inicial de fuentes—, las voces de la profesión apuntan a que la responsabilidad y la supervisión humanas seguirán siendo inevitables para asegurar que el periodismo continúe cumpliendo su función social de informar con precisión, independencia y ética.