LOGO_AIR_IAB_N_HD.jpg

Así es como las organizaciones europeas abordan el uso ético de la IA en el periodismo

Una mirada a cómo las redacciones y los organismos de prensa europeos piensan sobre el uso ético de las herramientas de inteligencia artificial en las noticias.

Tres cuartas partes de la industria de las noticias creen que la IA generativa es una oportunidad en el campo del periodismo, según una encuesta realizada por Google y LSE. Sin embargo, existe un gran escepticismo a la hora de aceptar herramientas de IA generativa como ChatGPT y Google Bard. Editores como The Telegraph consideran plagio el uso de texto generado por IA en el artículo sin el conocimiento de sus editores y equipo legal.  

Al mismo tiempo, los editores que han utilizado herramientas de inteligencia artificial de manera responsable han visto un impacto positivo. Después de ver una caída constante en el tráfico de sitios de redes sociales como Facebook, BuzzFeed comenzó a experimentar con herramientas de inteligencia artificial que llevaron a una «participación superior al promedio». El Aftonbladet de Suecia también ha sido testigo de un aumento en el tiempo dedicado a artículos cuyos resúmenes se generaron con IA. 

Separar las herramientas de inteligencia artificial del campo del periodismo es un gran desafío y tampoco debería ser la solución. Como dice Laurence Dierickx, investigador de IA y periodismo de la Universidad de Bergen, «no todos los sistemas de IA utilizados en el periodismo tienen el mismo potencial para crear daño».

Uso de la IA en la producción periodística

Las herramientas de inteligencia artificial pueden ayudar a eliminar tiempo y aumentar la velocidad en todas las etapas del proceso de trabajo periodístico. Puede ayudar en la etapa de recopilación al encontrar información, ayudar en el procesamiento de grandes cantidades de datos, ayudar a mejorar la estructura y la calidad de la noticia y ayudar a transmitir el contenido de manera efectiva. 

La asociación francesa de ética periodística CDJM dividió las herramientas de inteligencia artificial en tres categorías en función de su riesgo potencial de violar la ética periodística.

La primera es la de “usos de bajo riesgo”, una categoría de herramientas que los periodistas pueden utilizar sin decírselo al público. Esto incluye el uso de IA para correcciones gramaticales, generación de SEO y con fines de investigación o verificación de hechos.

Los “usos de riesgo moderado” consisten en herramientas como traducciones, generadores de resúmenes y creación de contenido auditivo y visual. Aquí es necesario informar al público al respecto. Por último está la sección “Prohibida” que es “intrínsecamente incompatible con el respeto a la ética periodística”. Los autores recomiendan no utilizar imágenes, vídeos o audio generativos que puedan llevar a la audiencia a creer en su realismo y no utilizar contenido generado por IA sin supervisión humana.  

Directrices sobre el uso de la IA 

Ha habido una gran actividad en la creación de pautas para el uso de la IA generativa en el sector de los medios. Varias organizaciones de medios internacionales y regionales han presentado sus recomendaciones. Un documento destacado en este campo son los Principios Globales para la IA.

Respaldado por el Consejo Europeo de Editores, WAN-IFRA, New Media Finland, la Asociación Danesa de Medios y muchas organizaciones de prensa internacionales, proporciona directrices para el campo de los medios y el periodismo. 

Los ‘Principios globales para la IA’ otorgan más responsabilidad a los desarrolladores de IA para establecer un marco ético. Otra directriz que habla específicamente de la responsabilidad de los editores de noticias es la Carta de París sobre IA y Periodismo, iniciada por RSF.

Opinión europea sobre las directrices sobre IA

Además de estas directrices internacionales, muchos organismos y organizaciones de prensa regionales y nacionales de Europa han redactado sus propias recomendaciones. Muchas de estas recomendaciones sugieren utilizar herramientas de IA de forma ética y con supervisión humana para mejorar el trabajo periodístico.  

Nicholas Diakopoulos, de la Universidad Northwestern, y Hannes Cools, de la Universidad de Amsterdam, estudiaron las directrices de las organizaciones de noticias europeas y estadounidenses. Descubrieron que las directrices del Aftonbladet de Suecia , De Volkskrant de los Países Bajos, Heidi.News de Suiza y Le Parisien de Francia recomiendan el uso de herramientas de inteligencia artificial siempre que exista la aprobación humana para el contenido. 

La VG de Noruega ha decidido utilizar herramientas de inteligencia artificial en la creación de gráficos, ilustraciones y modelos, pero ha decidido prohibir el uso de imágenes fotorrealistas. Heidi.News de Suiza y Le Parisien de Francia también han declarado que utilizan herramientas de inteligencia artificial con «fines ilustrativos».

La directiva de la Asociación Alemana de Periodistas (DJV) propone a los legisladores hacer obligatorio el etiquetado de los contenidos generados por IA. También exige una opción para que el usuario final opte por no participar en la distribución personalizada de contenido impulsada por IA. 

Dierickx realizó otro estudio de las directrices europeas. Junto con el profesor Carl-Gustav Lindén, analizaron 34 directrices de 11 organizaciones de noticias europeas para su artículo, que actualmente se encuentra bajo proceso de revisión por pares. 

Según su investigación, el Consejo de la Prensa de Cataluña elaboró ​​“las directrices más completas”. Ella explica: «[se] basa en una investigación sólida para resaltar los desafíos relacionados tanto con las características intrínsecas de los sistemas impulsados ​​por grandes volúmenes de datos, como con las prácticas responsables de las tecnologías de IA».

También descubrieron que la BBC es el único editor de noticias con directrices que se centran en los ingenieros de aprendizaje automático. Proporcionan seis principios y una lista de verificación de autoauditoría para ayudar a desarrollar tecnología ética «Los principios de la BBC subrayan que la responsabilidad de la IA recae en quienes construyen los sistemas».

Una idea similar también se vio en Alemania. “La ingeniería responsable también estuvo en el centro de las directrices publicadas por la emisora ​​pública bávara Bayerischer Rundfunk (BR), que también destacó la importancia de desarrollar una ‘cultura de datos’”, afirma Dierickx.

La tecnología de inteligencia artificial es un campo en constante cambio, con nuevas herramientas que ingresan todos los días y algunas desaparecen. Esto crea un espacio para que las directrices evolucionen constantemente y al mismo tiempo se mantengan fieles a los principios periodísticos ampliamente aceptados.

«Las nuevas tecnologías en el periodismo plantean nuevos desafíos, destacando la necesidad de prácticas éticas basadas en principios de precisión, equidad y transparencia», concluye Dierickx.

Fuente: ADEPA