Het adagium ‘als het gratis is, dan ben jij zelf het product’ gaat op voor de meeste diensten op het internet, en dus ook voor de nieuwe artificieel intelligente toepassingen die de afgelopen jaren het journalistieke vakgebied betraden.
Achteloos gegevens over jezelf of je werk rondstrooien houdt altijd een risico in. En zeker in de schimmige toverketels van de grote taalmodellen achter chatbots als Gemini of ChatGPT, die vaak omschreven worden als ‘zwarte dozen’ en zelfs voor de eigen makers deels ondoorgrondelijk zijn.
Volgende aandachtspunten kunnen je als journalist echter helpen om zo behoedzaam en veilig mogelijk om te springen met AI-toepassingen en grote taalmodellen.
Kies juist
Eind 2024 publiceerde het Amerikaanse Future of Life Institute zijn eerste AI Safety Index, die 6 grote AI-spelers (Anthropic, Google DeepMind, Meta, OpenAI, X en Zhipu AI) beoordeelt volgens enkele criteria rond veiligheid en transparantie. Anthropic haalt de hoogste score, al is het ook niet beter dan een C. De algemene teneur is dan ook negatief.
“Het is angstaanjagend dat net de bedrijven wiens leiders beweren dat AI de mensheid kan uitroeien geen strategie hebben om dat te vermijden”, aldus een van de onderzoekers.
Zo’n vaart zal het met één opdracht niet lopen. Het loont bij de keuze van je artificieel intelligente rechterhand echter toch om te weten welke van de grote spelers het meest verantwood te werk gaat.
De AI Safety Index 2024 vind je hier.
Voed geen oefenstof
Vaak gebruiken AI-modellen de tekst die jij invoert als oefenstof om zichzelf te verfijnen. Zo geef je letterlijk je informatie uit handen. Indien het om auteursrechtelijk beschermd materiaal gaat, stelt dat ook in dat opzicht een probleem.
“Wij maken onze redacteurs duidelijk dat ze moeten uitkijken met de gratis versie”, getuigt Eglantine Nyssen, AI-experte bij Roularta. “Zeker als je geen account hebt, is het beter om daar niet teveel gegevens achter te laten in Perplexity of ChatGPT.”
Door een account aan te maken, krijg je vaak wel toegang tot de optie om het trainen uit te schakelen. De KU Leuven heeft op zijn website een handig overzicht van hoe je dit specifiek aanpakt bij de verschillende grote spelers.
Werk lokaal
Hierbij moeten we tussen haakjes ‘indien mogelijk’ schrijven. Je eigen chatbot annex virtuele assistent in dienst nemen is weliswaar eenvoudiger dan het lijkt, maar je hebt er wel een dosis digitale zelfredzaamheid en een wat potigere computer voor nodig, met minimum 16 gigabyte aan rekenkracht en idealiter een aparte grafische kaart (die kan meehelpen met het denkwerk).
“Lokaal werken is de geprefereerde methode”, vertelt Kenza Lamot, assistent-professor in Journalistiek aan de Universiteit van Amsterdam. “Het is wat ingewikkelder, maar zeker niet onmogelijk. Daardoor kan je werken met je eigen trainingsdata, gebaseerd op je eigen archief. Want open-source-tools als ChatGPT werken vaak met niet gecureerde data, waarbij er risico is op vooringenomenheid.”
Met programma’s als AnythingLLM of gpt4all kan je relatief eenvoudig een lokaal AI-model laten draaien, met taalmodellen naar keuze.
Wees zuinig
AI-modellen draaien in grote serverparken die veel elektriciteit en koelwater verbruiken. De verwachting is dat tegen 2030 7% van het wereldwijde energieaanbod nodig zal zijn voor AI.
Vandaag is het bij de keuze van een specifieke toepassing moeilijk om te weten wat het energieverbruik is van een opdracht. Los daarvan is het altijd goed om zuinig om te springen met AI. Voor eenvoudig opzoekingswerk volstaat een veel minder energie-instensieve zoekmachine vaak.
Daarnaast kan een goed doordachte prompt het aantal pogingen om tot een gewenst antwoord te komen verminderen. Lees hier het verslag van de VVJ Academy-workshop over prompten.
En tenslotte verbruikt het genereren van afbeeldingen nog veel meer dan tekst. Wie hier bewust mee omspringt kan zijn verbruik aanzienlijk verlagen.
Blijf achterdochtig
“Een taalmodel neemt gewoon enorm veel tekst van het internet, stopt dat allemaal in een blender en puzzelt nieuwe dingen bij elkaar. Maar het heeft geen enkel besef van wat waar is en wat niet waar is. Puur door de aard van de technologie kan je dat niet gebruiken om betrouwbare nieuwsberichten te schrijven”, aldus auteur, onderzoeker en AI-strateeg Jens Meijen.
Flagrant zijn de hallucinaties, chatbots die in mooie volzinnen klinkklare nonsens uitkramen. De technologie evolueert echter snel, en hallucinaties komen al minder frequent voor dan 1 of 2 jaar gelden.
Veel subtieler is de vooringenomenheid die in taalmodellen vaak ingebakken zit, omdat ze niet op een evenwichtige manier gevoed zijn, of zelfs bewust in een bepaalde richting worden gestuurd. Om te zwijgen van censuur, zoals de Chinese chatbot Deepseek die nog nooit van het Tiananmen-protest van 1989 had gehoord.
Zoals steeds in de journalistiek geldt ook hier dat alle info kritisch geverifieerd moet worden.
Hans Dierckx