Op 12 december gaven Rien Emmery (VRT NWS) en Lotte Lambrecht (Knack) in de VVJ Academy een gesmaakte uiteenzetting over factchecking in tijden van AI. We vroegen Michaël Opgenhaffen, professor digitaal nieuws en journalistiek aan de KU Leuven, om te reflecteren over het thema.
Journalisten maken al langer gebruik van software bij het researchen en verifiëren van informatie. Sinds de jaren 60 werd onder de noemer computer-assisted reporting de computer gebruikt om relatief beperkte datasets te verwerken. Vanaf de jaren 70 ontstond een datagedreven aanpak, waarbij journalistieke research zich steeds meer richtte op grotere datasets en spreadsheets.
In de decennia die volgden won het zogenaamde computational journalism steeds meer aan belang. Door de opkomst van het internet midden jaren 90 werden bestaande journalistieke processen steeds verder geautomatiseerd (denk aan zoekmachines en reverse image tools).
Daarnaast maakten artificiële intelligentie en machine learning het mogelijk voor journalisten om diepgaandere analyses te maken van zowel gestructureerde als ongestructureerde data. Het is dan ook logisch dat factcheckers de meerwaarde van AI begonnen in te zien.
Fake news
Het kantelpunt in de relatie tussen factchecking en artificiële intelligentie ligt volgens mij rond 2015, het jaar waarin het begrip fake news gemeengoed werd. Hoewel artificiële intelligentie en de journalistieke toepassingen ervan al langer bestonden, is de link tussen AI en desinformatie niet te negeren.
In de aanloop naar de presidentsverkiezingen van 2016 maakte de wereld kennis met het concept fake news. Niet alleen presidentskandidaat Trump verspreidde af en toe dubieuze boodschappen, ook Macedonische informaticastudenten brachten op grote schaal valse berichten in omloop om clicks te genereren en zo geld te verdienen.
Al snel groeide het besef dat er extra inspanningen nodig waren om desinformatie op verschillende platformen te bestrijden. In de jaren die volgden nam het aantal factcheckers op nieuwsredacties en het aantal factcheckorganisaties dan ook aanzienlijk toe. Zelfs socialemediaplatformen als Facebook en later TikTok begonnen samen te werken met factcheckers.
Tegelijkertijd groeide het besef dat menselijke capaciteit alleen niet volstond en dat er geavanceerdere tools en technieken nodig waren om de stroom aan desinformatie efficiënt te monitoren en te controleren. Daardoor kwam AI al snel in beeld als mogelijke oplossing.
In die periode verschenen verschillende academische studies over methoden om desinformatie automatisch te herkennen. Een studie van de Universiteit van Washington uit 2017 toonde aan dat nepnieuws aanzienlijk meer persoonlijke voornaamwoorden, bijvoeglijke naamwoorden en superlatieven bevatte dan andere nieuwssoorten, zoals satire en propaganda. Als een computer dit leert, moet het mogelijk zijn om op basis van deze taalkenmerken nepnieuws van andere soorten berichten te onderscheiden.
In eenvoudige termen kan dit als een voorbeeld van AI worden gezien, omdat de computer patronen herkent in gescande berichten en aangeeft wanneer een bericht overeenkomt met de aangeleerde taalkenmerken van desinformatie. Bovendien werkt dit op een veel grotere schaal dan wat factcheckers handmatig kunnen verwerken.
Daarnaast kan de computer ook zelfstandig nieuwe vormen van desinformatie identificeren. Wanneer de computer in een eerste analyse desinformatie detecteert, kan hij op basis van overeenkomsten tussen afzenders ook nieuwere vormen van desinformatie opsporen. Dit proces wordt machine learning genoemd: een specifieke vorm van AI waarbij de computer, op basis van menselijke input en eerder verwerkte data, zelfstandig patronen herkent en inzichten ontwikkelt die verder gaan dan wat expliciet werd aangeleerd.
Tools met Belgisch DNA
Steeds meer factcheckorganisaties begonnen te experimenteren met AI. In 2018 publiceerde Full Fact het bekende rapport The State of Automated Fact-Checking. De auteurs deelden het proces van factchecking op in vier stappen: de stroom aan informatie monitoren, verdachte claims spotten, deze verifiëren en hierover een factcheck schrijven. Voor elke stap beschreven ze de stand van de automatisering en de bijbehorende AI-tools zoals Hawk, Stats, Robocheck en Trends.
Met deze laatste tool visualiseerde Full Fact bijvoorbeeld automatisch elke herhaling van een foutieve claim op een tijdlijn, waardoor een helder overzicht ontstond van welke foutieve claims wanneer werden herhaald en door wie. De conclusie van het rapport was echter dat we er nog niet waren: er bewoog veel, maar de meeste tools en ontwikkelingen bevonden zich nog in een testfase.
Sinds de publicatie van dat rapport zijn er tal van nieuwe technieken en toepassingen bijgekomen. Tegenwoordig zijn er verschillende geavanceerde AI-tools die factcheckers ondersteunen bij het verifiëren van afbeeldingen, het vergelijken van gezichten, het automatisch vertalen van Engelstalige soundbites op sociale media naar het Nederlands, en nog veel meer. Onder die tools zijn er ook heel wat met een Belgisch DNA. Zo ontwikkelde Maarten Schenk een plug-in voor zijn blog die detecteert welke posts op sociale media de meeste likes krijgen. Deze tool breidde hij uit tot Trendolizer, een platform waarmee je live kan zien welke berichten op sociale media trending zijn. En trending berichten blijken vaak fake posts te zijn, waardoor het een erg belangrijke tool werd voor factcheckers om desinformatie op te sporen.
Textgain implementeerde op zijn beurt AI in de twijfeldetectietool, die socialmediaberichten identificeert waarin een vorm van twijfel wordt geuit. Hierdoor kunnen factcheckers beter inspelen op wat er leeft onder de bevolking. Daarnaast ontwikkelde Textgain de BENEDMO factcheckdatabase, een collectie van bijna 200.000 factchecks die meerdere keren per dag wordt geüpdatet. Dankzij AI en een techniek die semantisch zoeken mogelijk maakt, kunnen factchecks snel en intuïtief in alle talen worden doorzocht. Ze dragen ook bij aan Factrank, de Vlaamse versie van Claimbuster, een tool die op basis van AI factcheckwaardige claims identificeert. Via Factrankkun je bijvoorbeeld in een oogopslag zien welke uitspraken van politici in De Afspraak of in het Vlaams Parlement de moeite waard zijn om te checken. Daarnaast kunnen factcheckers bijvoorbeeld een transcript van een speech of rapport uploaden, waarna de tool factcheckwaardige claims eruit haalt. Het gaat dan om stellingen die gecheckt kunnen worden, zoals verwijzingen naar percentages of trends – en niet om meningen of voorspellingen die niet feitelijk geverifieerd kunnen worden. Voor alle claims op Factrank wordt bovendien semantisch zoeken ingezet om te kijken of er al een factcheck in de BENEDMO-database beschikbaar is, wat een aanzienlijke tijdsbesparing kan opleveren.
De COM-Press tool van UGent helpt factcheckers dan weer om valse afbeeldingen te detecteren. Ook Wobby, een AI-platform van onder andere oud-VRT-journalist Amra Dorjbayar, kan factcheckers ondersteunen. Wobby zou je kunnen omschrijven als ChatGPT voor data.
Feiten en flair
ChatGPT, de naam is gevallen. Deze tool van het Amerikaanse bedrijf OpenAI heeft eind 2023 gezorgd voor een doorbraak, waardoor (generatieve) AI ook bij het grote publiek bekend werd. Ondertussen zijn er verschillende soortgelijke platformen bijgekomen, denk maar aan Google Gemini, Microsoft Copilot of het Chinese Deepseek. Het is inmiddels wel bekend dat je met dit soort platformen mooi geformuleerde antwoorden krijgt op al je vragen, wat niet alleen handig kan zijn voor tieners die een schooltaak moeten maken, maar ook voor journalisten. En dus ook voor factcheckers, die de chatbot kunnen gebruiken bij hun research – zeker nu de nieuwste versies ook in staat zijn om actuele informatie op het internet te zoeken.
Zo zag ik enkele weken geleden op mijn tijdlijn een interessante toepassing hiervan. Iemand gaf ChatGPT een afbeelding die, na even goed te bekijken, te herkennen was als een AI-gegenereerde afbeelding. Toen de vraag werd gesteld of deze afbeelding echt of gefabriceerd was, antwoordde de tool dat het hoogstwaarschijnlijk om een echte foto ging. De algoritmes achter ChatGPT bleken namelijk niet in staat om subtiele, maar voor een mens duidelijk zichtbare foutjes in de afbeelding te detecteren.
Maar toen stelde iemand voor om de tool te vragen naar de elementen waar een factchecker op zou kunnen focussen om te beoordelen of de foto al dan niet gefabriceerd was. De tool gaf daarop een aantal nuttige suggesties, zoals het onderzoeken van details bij de personen in de foto of de schaduwen, waarna de factchecker zelf verder aan de slag kon om de authenticiteit van de afbeelding in te schatten. Dit voorbeeld illustreert volgens mij mooi de huidige relatie tussen AI en factchecking. De nieuwe tools en platformen zijn zeker waardevolle hulpmiddelen, maar tot op de dag van vandaag blijft menselijke input cruciaal voor een gedegen verificatie.
Algoritmes kunnen helpen bij het inschatten van de authenticiteit van een foto, maar welke factchecker durft vandaag zijn oordeel volledig aan een tool over te laten? AI kan ook bijdragen aan het detecteren van relevante claims, vooral binnen de enorme stroom informatie die met het blote oog moeilijk te filteren is. Maar uiteindelijk zijn het de factcheckers zelf die bepalen welke claims relevant zijn om te controleren.
Er kunnen tal van tools worden ingezet om de zoektocht naar data gemakkelijker te maken en zelfs om die data te analyseren of in grafieken weer te geven, zonder dat diepgaande statistische kennis nodig is. Maar uiteindelijk heb je wel een mens nodig om te beoordelen welke informatie toegankelijk en begrijpelijk is voor het grote publiek. En hoewel factcheckers generatieve AI kunnen gebruiken om factchecks te schrijven of socialmediaberichten te creëren, weten we allemaal dat een grondige eindredactie nodig is om het tot een aantrekkelijk en helder stuk te maken. Of zoals ik ooit ergens las: ‘Robots can do facts, but can they do flair?’
Michaël Opgenhaffen
(foto: Pixabay)