Baart het ethisch gebruik van generatieve AI ook jou zorgen? Je bent niet alleen; dat geldt voor liefst 85% van de journalisten. Op 8 mei organiseerde VVJ Academy twee lezingen en een debat hierover. Dit is wat we daaruit onthouden.
“Je kan perfect goed nieuws maken zonder AI, net zoals je dat kan zonder smartphone. Maar het is het stadium van hype al lang voorbij, en als journalist kan je dit toch niet meer negeren. Ja, we zijn beducht voor de gevaren, maar we wijzen ook op de mogelijkheden”, aldus een van de deelnemers aan de nabespreking over transparant gebruik van artificiële intelligentie op nieuwsredacties.
Op 8 mei organiseerde VVJ Academy dit debat in een tweeluik met de voorstelling van twee academische studies over transparant gebruik van AI.
Astrid Vandendaele van de VUB en de Universiteit Leiden onderzocht bij enkele Nederlandse uitgevers hoe AI ethisch ingezet wordt in de journalistiek. Kristin Van Damme en Stephanie D’haeseleer van de onderzoeksgroep imec-mict-UGent bestudeerden hoe nieuwsorganisaties transparant kunnen zijn over het gebruik van AI zonder het vertrouwen in de journalistiek te schaden.
(De presentaties van beide studies vind je hier en hier.)
Aansluitend gingen Tessa Coeckelberghs (chef nieuws bij De Morgen), Michiel De Smet (artdirector bij Knack), Tatjana Vandenplas (hoofd AI bij VRT) en Karel Degraeve (journalist bij VRT NWS) met elkaar in gesprek over de onderzoeksbevindingen.
Wij noteerden deze 10 inzichten, bedenkingen en thema’s die uitnodigen tot verdere reflectie, aangevuld met aanbevelingen uit beide studies.
1 - Verantwoord AI-gebruik: hoe begin je eraan?
“Als nieuwsmakers mogen we niet vergeten dat we in een samenleving zitten waarin een permanente twijfel sluipt over wat echt en vals is”, stelt Karel Degraeve van VRT NWS voorop.
Transparantie, verantwoordelijkheid en controleerbaarheid, zo vat Astrid Vandendaele (VUB/Universiteit Leiden) in kernbegrippen samen hoe nieuwsredacties het best omgaan met generatieve AI in hun werk.
Aan transparantie tegenover het publiek schort het evenwel, zo stelde ze vast tijdens haar onderzoek bij De Telegraaf, de Volkskrant, NOS en RTL. Andere knelpunten zijn een gebrek aan gedeelde expertise binnen de redactie en het ontbreken van praktische richtlijnen. Daarnaast missen redacties soms controle over de AI-hulpmiddelen die ze gebruiken, omdat deze in handen zijn van buitenlandse techbedrijven.
2 - Kennis in silo’s
“De grootste uitdaging is om iedereen mee te nemen”, stelt Degraeve vast. “Je hebt de early adopters, daarna heb je een grote groep nieuwsgierigen die naar de hoofdredactie kijken voor een kader en voor aansturing, en dan nog een kleinere groep die terughoudender is.”
Het risico bestaat dat de kennis over AI verzuild blijft binnen de organisatie, omdat de redactie, IT-afdeling, juridische dienst en directie vaak naast elkaar werken. Dat er soms verschillende technologieën naast elkaar gebruikt worden, werkt dat in de hand, net als wantrouwen over het gebruik van AI, of het gebrek aan kennis daarover.
Doordat de AI-geletterdheid niet universeel gemaakt wordt binnen de hele organisatie, en er geen gedeelde richtlijnen zijn, ontstaat een groter risico op fouten, aldus Vandendaele. Zowel tussen individuen als departementen is kennisdeling, overleg en een gedeeld vocabularium dus cruciaal.
3 - AI als vanzelfsprekend
Het publiek gaat ervan uit dat journalisten GenAI gebruiken in hun job, is een van de inzichten uit het onderzoek van Kristin Van Damme en Stephanie D’haeseleer (imec-mict-UGent). Zij bevraagden in 2024 in België en Nederland journalisten, waaruit nochtans blijkt dat bijna de helft nog nooit generatieve AI gebruikte, en dat 14% dit (op dat moment) dagelijks deed.
Een cruciaal onderscheid hierbij: het gaat daarbij niet om volledig door AI gegenereerde journalistiek (waarbij het volgens de AI-wet verplicht is om dit erbij te vermelden). Wel om artificieel intelligente ondersteuning, waarbij niets gepubliceerd wordt zonder dat er een mens aan te pas is gekomen.
Zowel journalisten als publiek zijn vragende partij om hier transparant over te communiceren. Alleen: hoe doe je dit?
4 - De transparantieparadox
En ook: hoe zorg je ervoor dat dit het vertrouwen in de journalistiek verhoogt, en niet verlaagt?
Dat is de zogenaamde transparantieparadox. Uit onderzoek is gebleken dat een AI-label nieuws minder geloofwaardig maakt, zelfs als het feitelijk helemaal correct is. Die transparantie leidt immers niet noodzakelijk tot meer begrip; de vage boodschap dat er AI is gebruikt bij de creatie van een artikel kan zelfs eerder tot achterdocht leiden.
Verschillende internationale nieuwsorganisaties hebben al met zo’n AI-label geëxperimenteerd. Daarnaast is er ook de optie om een redactiecharter te publiceren, zoals dat van Roularta of De Tijd.
5 - Een duidelijk etiket
Visuele logo’s lijken werkbaar, maar hebben hun valkuilen. Een AI-label kan immers verkeerdelijk de indruk wekken dat een artikel of video voor 100% door AI gegenereerd is, terwijl er misschien maar een klein handje hulp aan te pas kwam.
Bovendien legt het een verantwoordelijkheid bij de lezer of kijker, die impliciet de melding krijgt dat hij of zij met een bepaalde bril moet kijken. Het trekt daarnaast nodeloos aandacht, en het risico bestaat dat een overdaad aan labels zelfs meer verwarring zaait. “Wij gebruiken AI vandaag bijvoorbeeld vaak om teksten na te lezen op taalfouten. Moet je daar dan een AI-label naast zetten?”, vraagt Tessa Coeckelberghs van De Morgen zich retorisch af.
Of, zoals een deelnemer aan het onderzoek van imec-mict-UGent opmerkte: “Ik denk dat er wel grenzen zijn aan transparantie. Je moet ergens wel een ‘blik achter de schermen’ kunnen geven, maar dat doen ze (journalisten, red.) nu ook heel beperkt. Hoe zijn ze tot hun bronnen gekomen? Wie hebben ze gecontacteerd, etc.?”
6 - De mens is de baas
“Ik heb gewoon een bevestiging nodig dat journalisten de inhoud gecontroleerd hebben”, zo vatte een andere het samen. “Dus mijn oplossing: een label dat AI-gebruik aanduidt én duidelijk maakt dat een journalist het dubbel heeft gecheckt.”
Die conclusie trekken ook Van Damme en D’haeseleer: finaal blijft de journalist steeds verantwoordelijk. AI-tools kunnen helpen bij opzoekingswerk, of bij het formuleren en structureren van een tekst, maar het ondertekenen en publiceren blijft mensenwerk.
“Een artikel gaat door veel handen, van de journalist over de chef nieuws tot de eindredacteur en de chef eindredactie. Iedereen checkt dat ook inhoudelijk”, getuigt Coeckelberghs. “We schrijven geen teksten met AI. Maar mocht het zo zijn, dan denk ik zelfs niet dat we er daarom meer aandacht aan zouden besteden dan aan een andere tekst. Want het moet gewoon altijd goed zijn.”
7 - En wat met beelden?
En dan is er nog beeldgeneratie. Zoals de gefingeerde foto van een rookpluim aan het Pentagon, die in 2024 verspreid werd en paniek veroorzaakte in de echte wereld, onder andere met rode beurscijfers tot gevolg. Zulke namaakbeelden overspoelen vandaag het internet in die mate dat je op den duur niets nog zou geloven.
Uit het onderzoek van de VUB/Universiteit Leiden bleek in elk geval dat het gebruik ervan op nieuwsredacties beperkt blijft tot illustraties en visualisaties. Maar bleek ook dat niet alle redacties er al richtlijnen over hebben, en op buikgevoel beslissen of ze het al dan niet inzetten. Hier is behoefte aan een meerlagige controle, aldus Vandendaele, zowel intern bij redacties als op sectorniveau en internationaal.
AI-tools als Midjourney scheppen enerzijds mogelijkheden om efficiënt visualisaties te creëren en creatieve vertelvormen te versterken. Maar er ontstaat anderzijds het risico dat het vertrouwen verdwijnt. Bovendien kan het stereotypen gaan reproduceren, om te zwijgen van de auteursrechtelijke kwestie die erbij komt kijken.
Tijdens het debat met de Vlaamse media sprak de eensgezindheid voor zich dat je geen nieuwsbeelden kan gaan manipuleren.
“Wat we met Midjourney doen, konden we vroeger ook al met Photoshop”, merkt Michiel De Smet op, artdirector van Knack. Hij gebruikt de tool enkel voor illustratieve beelden.
“Neem bijvoorbeeld een artikel over antidepressiva. Niemand zit te wachten op een stockbeeld van iemand die met handen in het haar zit, en dus proberen we iets anders te maken. We hebben dit jaar al 3 covers gemaakt met een AI-beeld erop. Zoals die met Xi Jinping en de beurskoersen: we bedenken iets, en vroeger zouden we dat met Photoshop gemaakt hebben, maar nu met AI. Illustratoren voelen zich daardoor bedreigd, maar we hebben nog geen opdracht minder uitgeschreven.”
8 - ChatDPG en co
Elk mediahuis heeft dezer dagen zijn eigen AI-omgeving op poten gezet. Hoe zit dat bijvoorbeeld bij DPG en VRT?
“Wij hebben onze Smart News Assistant ontwikkeld”, aldus Tatjana Vandenplas van VRT. “Je kan die vergelijken met ChatGPT, en we bieden daarin prompts aan om koppen of samenvattingen te maken, bijvoorbeeld voor ons WhatsApp-kanaal, waar we zo het aantal berichten konden verdubbelen. Let wel: er wordt nog altijd een check gedaan door een eindredacteur.”
“In de researchfase kan je AI gebruiken onder bepaalde voorwaarden”, vult Degraeve aan. “In de productie enkel om bijvoorbeeld een titel te schrijven, en in de distributiefase simpelweg niet. We testen alles steeds uitvoerig en rollen het dan pas uit, steeds zonder de verplichting om het te gebruiken.”
“Bij DPG gebruiken we ChatDPG”, vertelt Coeckelberghs. “Dat is ChatGPT, maar dan eveneens in een beschermde omgeving waarin onze data van ons blijven. Het zijn eigenlijk vooral onze grafici die vandaag AI gebruiken, voor infografieken, data, vormgeving en om ideeën op te doen. Aan de journalistieke kant heb ik de indruk dat we er meer over schrijven dan dat het gebruikt wordt. Mensen zien de kansen, maar nog niet de concrete toepassing ervan.”
9 - App-tips
“Bij de VRT hebben we een lijst met aanbevolen apps, waarmee we licentie-overeenkomsten hebben en waarmee we onderhandelen over hoe het beveiligd wordt, zoals bijvoorbeeld Microsoft Copilot”, zegt Vandenplas. “ChatGPT laten we toe, maar met duidelijke richtlijnen. Je mag het gebruiken om ideeën op te doen, maar niet voor vertalingen. Al die richtlijnen staan in een AI-kompas op ons intranet.”
“Bij DPG hebben we een lijst van apps die we wel of niet mogen gebruiken. Automatische notities maken tijdens een vergadering doen we bijvoorbeeld niet, want die info willen we niet delen met een app.”
“Voor journalisten is NotebookLM een zegen”, weet Degraeve. “Je kan er documenten in slepen en deze vervolgens bevragen. Ik raad iedereen aan om daarmee te experimenteren, te beginnen met een document dat je goed kent.”
Daarnaast noemt hij een interessant voorbeeld van een regionale krant uit Noorwegen, die een tool ontwikkeld heeft om verslagen van gemeenteraden te analyseren en daarin nieuws te detecteren, waarmee de journalisten aan de slag kunnen. “In hun eerste week hebben ze zo 5 nieuwsverhalen gemaakt die anders onder de radar zouden zijn gebleven.”
10. Wie A(I) zegt…
…zegt: automatiseren en geld besparen. Hoe zien de Vlaamse nieuwsredacties dat?
“De laatste jaren is er wel de evolutie om meer te doen met minder middelen. Iets dat tijd bespaart, is dus een goede zaak. Maar ik heb niet het gevoel dat de AI-trein jobs bedreigt bij DPG Media”, aldus Coeckelberghs.
“Efficiëntie betekent eerder meer output genereren, bijvoorbeeld meer Instagram-posts om zo meer jongeren te bereiken”, aldus Vandenplas. “Maar het zou te kort door de bocht zijn om te beweren dat er niets zal gebeuren qua besparingen. Ondertitelaars zullen bijvoorbeeld minder vaak ingeschakeld worden wanneer de kwaliteit van de tool op punt staat, wat voorlopig nog niet het geval is.”
“Voor vertalers wordt het een bedreiging, maar prompts schrijven wordt dan weer een nieuwe specialisatie”, meent De Smet. “Een paar jaar geleden gingen we nog een gasfles kopen om deze goud te spuiten, voor een illustratie over de stijgende gasprijzen. Vandaag kunnen we dat gewoon doen met een prompt in Midjourney.”
AANBEVELINGEN VOOR JOURNALISTEN EN REDACTIES
Uit de studies van de VUB/Universiteit en de onderzoeksgroep imec-mict-UGent noteerden we enkele aanbevelingen voor journalisten en redacties voor een ethische en transparante omgang met AI in de nieuwsberichtgeving.
- Ontwikkel transparantieprotocollen. Door een (publiek toegankelijk) AI-charter en eventueel labels kunnen lezers en kijkers begrijpen hoe AI heeft bijgedragen tot het journalistieke product. Ook watermerken en intern gebruikte metadata kunnen hier hun nut bewijzen.
- Doorbreek de kennissilo’s. Binnen een nieuwsorganisatie zit vaak veel kennis verspreid. Door in de verschillende departementen AI-ambassadeurs aan te duiden, ontstaan bruggenhoofden om deze kennis doeltreffend te verspreiden.
- Leid op en geef richtlijnen. Om tot een uniform beleid te komen, zijn duidelijke marsorders en een systematische kennisdeling noodzakelijk.
- Betrek het publiek. Er bestaat nog geen consensus over hoe gecommuniceerd moet worden over het gebruik van AI in de nieuwsgaring. Dit kan ontstaan in wisselwerking met het publiek, eventueel via een ombudspersoon. Zo groeit ook aan die kant de geletterdheid over artificiële intelligentie.
- Houd de ‘human in the loop’. Elke AI-actie moet gecontroleerd en geverifieerd worden door een mens. Benadruk dit principe ook naar de buitenwereld.
Verslag - Hans Dierckx
Foto's - Pixabay