In mei organiseerde de VVJ Academy twee presentaties van academisch onderzoek naar het gebruik van generatieve AI op nieuwsredacties, en aansluitend een debat tussen vertegenwoordigers van grote mediahuizen. Een van de thema’s die tot nadenken stemden, was het AI-label. Dat geeft aan of er AI gebruikt is bij de creatie van een artikel. Is zo’n etiket wenselijk? En is het werkbaar?
‘Dit artikel is gemaakt met behulp van AI’, zo lezen we onderaan een nieuwsbericht over Wout van Aert op de website Resport, uitgebaat door de Nederlandse tak van Mediahuis. Daarbij staat ook vermeld dat het om een experimentele site gaat, met artikels gebaseerd op berichtgeving van het persbureau ANP. ‘Om de betrouwbaarheid van deze website te kunnen waarborgen, worden er dagelijks checks uitgevoerd door ervaren redacteuren’, staat er elders.
In zo’n geval is een AI-label verplicht, op voorschrift van de AI-wet die de EU vorig jaar op papier zette. Maar wat met andere artikels of uitzendingen, waar misschien een artificieel intelligent handje hulp aan te pas kwam bij het bedenken van een titel, of het corrigeren van de teksten?
Het thema kwam aan bod tijdens een evenement van de VVJ Academy. Astrid Vandendaele (VUB/Universiteit Leiden) presenteerde er haar onderzoek bij enkele Nederlandse uitgevers naar hoe AI ethisch ingezet wordt in de journalistiek. Kristin Van Damme en Stephanie D’haeseleer (imec-mict-UGent) stelden dan weer hun studie voor naar hoe nieuwsorganisaties transparant kunnen zijn over het gebruik van AI zonder het vertrouwen in de journalistiek te schaden. Aansluitend gingen vertegenwoordigers van enkele grote Vlaamse mediahuizen hierover in debat.
Transparantieparadox
‘Bij onze krant gebruiken we artificiële intelligentie vooral voor tekstcontrole. Is het daarbij dan nodig om met een label aan te geven dat er AI aan te pas gekomen is?’, vroeg Tessa Coeckelberghs, chef nieuws bij De Morgen, zich daarin retorisch af.
Ziedaar in essentie de transparantieparadox, die benoemd wordt in beide onderzoeken. Blijkt immers dat transparantie het vertrouwen in de nieuwsgaring niet verhoogt, maar opmerkelijk genoeg net verláágt. Het zet de kwestie rond AI-etiketten in een heel ander licht. Een label kan immers misleiden, door verkeerdelijk de indruk te wekken dat alles door AI-programma’s is uitgevoerd, terwijl het misschien gewoon diende voor een spellingscheck of om een titel te verfijnen. Bovendien verlegt het een zekere verantwoordelijkheid naar de lezer, want die wordt impliciet geacht een nieuwsbericht door een bepaalde bril te bekijken, terwijl die vooral een correct journalistiek product verwacht.
Een optie is met verschillende labels te werken, eentje dat aangeeft dat er AI is gebruikt als schrijfhulp, een ander dat iets zegt over AI-gebruik bij het opzoekingswerk. Maar ook daar loert de transparantieparadox om de hoek, want is een reportage vol logo’s helderder dan gewoon een goed stuk? Kortom, de praktische invulling is complex. Een alternatief is het publiek over AI-gebruik informeren via een vrij toegankelijk redactioneel charter. De Tijd doet dit al, net als de Roularta-groep.
Waterdicht
‘Ik heb gewoon een bevestiging nodig dat journalisten de inhoud gecontroleerd hebben’, luidt de aanbeveling van een van de deelnemers aan het onderzoek. ‘Dus mijn oplossing: een label dat AI-gebruik aanduidt én duidelijk maakt dat een journalist het dubbel heeft gecheckt.’ Het is volgens Van Damme en D’haeseleer de essentiële aanbeveling van hun onderzoek: het gaat niet om labels, maar om de verantwoordelijkheid van de journalist, die erover moet waken dat alles wat die publiceert waterdicht is.
‘Bij ons kan in de researchfase AI onder bepaalde voorwaarden gebruikt worden’, vertelt Karel Degraeve van VRT NWS. ‘In de productiefase enkel bij het schrijven van bijvoorbeeld een titel, en in de distributiefase simpelweg niet. Daarom zie ik er niet zo’n heel groot gevaar in. Maar het is belangrijk om journalisten goed op te leiden, en om ons als redactie zo te organiseren dat we de controle behouden. Als nieuwsmakers mogen we niet vergeten dat we in een samenleving zitten waarin een permanente twijfel sluipt over wat echt en vals is.’
Nepbrand aan het Pentagon
Dat geldt bij uitstek voor beelden. Zo illustreert de gefingeerde foto van een rookpluim aan het Pentagon, die in 2024 verspreid werd en paniek veroorzaakte in de echte wereld, onder andere met rode beurscijfers tot gevolg. Het is maar een van de ontelbare voorbeelden van namaakbeelden die vandaag het internet overspoelen, waarbij je op den duur niets nog zou geloven. AI-tools als Midjourney scheppen enerzijds mogelijkheden om efficiënt visualisaties te creëren en creatieve vertelvormen te versterken. Maar er ontstaat anderzijds het risico dat het vertrouwen verdwijnt. Bovendien kan het stereotypen gaan reproduceren, om te zwijgen van de auteursrechtelijke kwestie die om de hoek loert.
Uit het onderzoek van de VUB/Universiteit Leiden bleek in elk geval dat het gebruik ervan op nieuwsredacties beperkt blijft tot illustraties en visualisaties. ‘Wat we met Midjourney doen, konden we vroeger ook al met Photoshop’, getuigt Michiel De Smet, artdirector van Knack. ‘We hebben dit jaar al enkele covers gemaakt met een AI-beeld erop. Zoals die met een brandende Tesla Cybertruck erop: we bedenken iets, en vroeger zouden we dat met Photoshop gemaakt hebben, maar nu met AI.’
Hans Dierckx
(Illustratie: Revista)
Aanbevelingen voor journalisten en redacties
Uit de studies van de VUB/Universiteit en de onderzoeksgroep imec-mict-UGent noteerden we enkele aanbevelingen voor journalisten en redacties voor een ethische en transparante omgang met AI in de nieuwsberichtgeving.
-
Ontwikkel transparantieprotocollen. Door een AI-charter en eventueel labels kunnen lezers en kijkers begrijpen hoe AI heeft bijgedragen tot het journalistieke product. Ook watermerken en intern gebruikte metadata kunnen hier hun nut bewijzen.
-
Doorbreek de kennissilo’s. Binnen een nieuwsorganisatie zit vaak veel kennis verspreid. Door in de verschillende departementen AI-ambassadeurs aan te duiden, ontstaan bruggenhoofden om deze kennis doeltreffend te verspreiden.
-
Leid op en geef richtlijnen. Om tot een uniform beleid te komen, zijn duidelijke marsorders en een systematische kennisdeling noodzakelijk.
-
Betrek het publiek. Er bestaat nog geen consensus over hoe gecommuniceerd moet worden over het gebruik van AI in de nieuwsgaring. Dit kan ontstaan in wisselwerking met het publiek, eventueel via een ombudspersoon. Zo groeit ook aan die kant de geletterdheid over artificiële intelligentie.
-
Houd de ‘human in the loop’. Elke AI-actie moet gecontroleerd en geverifieerd worden door een mens. Benadruk dit principe ook naar de buitenwereld.