CBC News ha revisado sus directrices internas sobre el uso de inteligencia artificial en sus procesos informativos con el objetivo de reforzar la supervisión humana, detallar en qué casos puede emplearse la tecnología de forma segura y establecer mecanismos para evitar riesgos que puedan afectar a la confianza del público.
Las nuevas indicaciones describen cómo deben trabajar los periodistas con herramientas automáticas para tareas de apoyo, establecen límites estrictos para la generación de contenidos y fijan pautas claras de verificación y transparencia, con especial énfasis en el principio de que la IA es un instrumento y nunca el creador del contenido publicado.
La corporación canadiense distingue entre trabajos asistidos por IA —en los que el periodista utiliza la herramienta como apoyo para investigar, resumir o proponer ideas, pero mantiene el control editorial— y contenidos generados por IA, cuya utilización considera potencialmente problemática si no se gestiona con transparencia.
Las normas establecen que cualquier pieza que dependa de forma significativa de estos sistemas requerirá una advertencia explícita al público antes de su lectura, visionado o escucha. CBC News señala que estas directrices se revisarán de forma periódica para ajustarse a la evolución de la tecnología y a su impacto en las redacciones.
La guía interna define varios usos permitidos, todos ellos en tareas de asistencia: análisis de grandes conjuntos de datos, apoyo en la elaboración de guiones o titulares a partir de propuestas que después deben ser revisadas, sugerencias para descripciones o textos en redes sociales, resúmenes supervisados por un periodista, comprobaciones de estilo o primeras traducciones que siempre deben ser validadas por una persona fluida en el idioma.
También se autoriza el empleo de sistemas automáticos para transformar contenido en accesible, como la conversión de texto a voz o la generación de subtítulos, sin necesidad de supervisión previa pero con revisión posterior si es necesario.
CBC News prohíbe expresamente utilizar la inteligencia artificial para redactar artículos o guiones completos, así como crear imágenes o vídeos mediante generadores automatizados para uso público. Además, impide el uso de herramientas personales de IA para evitar filtraciones de datos sensibles y exige que todo el material sea verificado mediante los procedimientos editoriales habituales, independientemente del grado de intervención tecnológica.
La política establece que la transparencia con la audiencia será obligatoria cuando la participación de la IA resulte relevante para la comprensión o la integridad del contenido, por ejemplo en el análisis automatizado de grandes bases de datos o en procesos en los que la pieza resultante no hubiera sido posible sin la ayuda de estas herramientas. En estos casos, se recomienda explicar qué hizo la herramienta, por qué se utilizó, qué controles humanos se aplicaron y cómo se garantiza el cumplimiento de los estándares periodísticos.
Las directrices incorporan además procedimientos de responsabilidad interna: los periodistas deben ser capaces de explicar en cualquier revisión editorial cómo han usado la IA en su trabajo, por qué la emplearon y qué comprobaciones aplicaron para evitar errores. También se contempla la posibilidad de realizar experimentos limitados aprobados por un comité interno, con el fin de estudiar nuevas aplicaciones de la tecnología y actualizar en el futuro el documento.
La actualización mantiene como prioridad la preservación de la confianza del público en el periodismo de CBC News, que insiste en que todo el contenido debe cumplir sus estándares de verificación y exactitud, independientemente de si ha contado con apoyo tecnológico durante el proceso de producción.



