ik wil…    ai begrijpen     journalistieke voorbeelden      lesmateriaal     zoeken

Kritische verslaglegging van AI: de 18 valkuilen en hoe je ze ontwijkt

Het gaat de laatste tijd veel over AI in het nieuws, maar het is niet altijd makkelijk om over zo’n technologisch en complex onderwerp te berichten. Onderzoekers van Princeton University melden, op basis van een analyse van vijftig nieuwsartikelen, dat journalisten vaak in dezelfde valkuilen trappen. Ze noemen er achttien, opgedeeld in vier categorieën.

18 valkuilen bij het beschrijven van AI-ontwikkelingen en -toepassingen

Categorie 1: Onterechte vergelijkingen met mensen

Valkuil 1. Het toeschrijven van autonomie aan AI: bijvoorbeeld door te impliceren dat AI-systemen nu of in de nabije toekomst onafhankelijk van menselijk toezicht zal opereren.

Valkuil 2. Suggestieve beelden: Vaak worden afbeeldingen van mensachtige robots gebruikt om artikelen over AI te illustreren, zelfs als de inhoud van het artikel niets met robots te maken heeft. Dit wekt de indruk dat AI-tools belichaamd zijn, ook al is het eigenlijk gewoon een softwareprogramma.

Valkuil 3. Vergelijking met menselijke intelligentie: Ook wat AI kan, word vaak vermenselijkt. Zo impliceren sommige artikelen dat AI op dezelfde manier leert als mensen. Daardoor kun je het idee krijgen dat AI ook dingen kan voelen of beleven als een mens. Maar dat klopt niet.

Valkuil 4. Vergelijking met menselijke vaardigheden: Ook vergelijken artikelen vaak hoe goed AI-tools presteren ten opzichte van mensen. Daardoor kun je het idee krijgen dat AI en mensen op gelijke voet concurreren. In werkelijkheid kan AI ergens weliswaar (ontzettend) goed in zijn, maar dan wel alléén in die ene taak waarvoor het specifiek getraind is. Een taalmodel als ChatGPT is bijvoorbeeld erg goed in taal, maar kan niet controleren of de inhoud ook klopt. Mensen zijn in die zin veelzijdiger.

Categorie 2: Overdreven, onjuist of niet te controleren

Valkuil 5. Overdrijving: Regelmatig beschrijven journalisten AI-systemen als revolutionair of baanbrekend, terwijl er geen concreet bewijs is van hun prestaties. Dat kan leiden tot overschatting.

Valkuil 6. Onkritische vergelijking met historische technologische ontwikkelingen: Het is natuurlijk een slimme marketingtruc om de opkomst van AI te vergelijken met grote, historische ontwikkelingen zoals de uitvinding van elektriciteit of de industriële revolutie. Maar als journalisten dit soort termen klakkeloos overnemen zonder bewijs aan te leveren, kan dit leiden tot overdreven of ongegronde vergelijkingen.

Valkuil 7. Speculatie over toekomstige vooruitgang: Ook over toekomstige ontwikkelingen worden regelmatig niet-onderbouwde beweringen gedaan. Zo voorspellen artikelen vaak dat AI-instrumenten onvermijdelijk van nut zullen zijn voor een bepaalde sector, zonder daarvoor overtuigend bewijs aan te dragen. Vraag je dus altijd af van wie bepaalde beweringen vandaan komen en wat hun belangen zijn.

Valkuil 8. Valse beweringen over vooruitgang: Een journalist die in valkuil 6 of 7 trapt, doet beweringen die onvoldoende onderbouwd zijn. Valkuil 8 gaat nog een stapje verder: daar worden beweringen gedaan die feitelijk onjuist zijn, bijvoorbeeld over wat een tool wel of niet kan doen.

Valkuil 9. Onjuiste beweringen over wat een onderzoek rapporteert: Nieuwsartikelen citeren vaak academische studies om hun beweringen te onderbouwen. Helaas gaat dit niet altijd goed en worden onderzoeken soms onjuist aangehaald of worden bevindingen uit de context getrokken.

Valkuil 10. Diep klinkende termen voor banale acties: Vaak staan er grote woorden in berichten over AI. ‘De magie van AI’, bijvoorbeeld. Daardoor kun je het idee krijgen dat AI iets verrassends doet, terwijl het eigenlijk getraind is om precies te doen wat het doet. Daar is over het algemeen niets verrassends of magisch aan. Het gebruik van diep klinkende termen verhult soms hoe alledaags de taken zijn die AI uitvoert.

Categorie 3: Kritiekloos mensen aanhalen die eigenbelang hebben bij het onderwerp

Valkuil 11. Woordvoerders en onderzoekers van bedrijven als neutrale partijen behandelen: Wanneer een artikel alleen of voornamelijk citaten bevat van woordvoerders of onderzoekers van bedrijven die een AI-tool hebben gebouwd, is het waarschijnlijk te optimistisch over de potentiële voordelen van de tool.

Valkuil 12. PR-termen en -uitspraken herhalen of hergebruiken: Nieuwsartikelen nemen vaak termen uit PR-uitspraken van bedrijven over, in plaats van zelf te beschrijven hoe een AI-tool werkt. Ook dit kan zorgen voor gekleurde berichtgeving.

Categorie 4: Geen oog voor de beperkingen

Valkuil 13. Geen discussie over mogelijke beperkingen: Veel artikelen noemen de mogelijke beperkingen van AI niet. Ze zwijgen bijvoorbeeld over de kans op bias. Daardoor kunnen lezers een vertekend beeld krijgen van de risico’s van AI-tools.

Valkuil 14. Beperkingen worden gebagatelliseerd: als een artikel beperkingen wel benoemt, worden ze vaak minder belangrijk gemaakt, bijvoorbeeld door ze aan het einde van het artikel te plaatsen of door er weinig woorden aan te wijden.

Valkuil 15. Framing van ‘sceptici’: Als experts wel de ruimte krijgen om de beperkingen van AI te benoemen, worden zij vaak geframed als sceptici die het ware potentieel van AI niet zien.

Valkuil 16. Het bagatelliseren van menselijke arbeid: Vaak wordt de rol van technische vooruitgang benadrukt en wordt alle menselijke arbeid die daarmee gemoeid gaat, gebagatelliseerd. In werkelijkheid is er enorm veel handwerk nodig om een AI-systeem te trainen. Als nieuwsconsumenten dat niet weten, kunnen ze onterecht het idee krijgen dat AI-instrumenten autonoom werken.

Valkuil 17. Prestatiecijfers zonder onzekerheidsschatting of kanttekeningen: Er is zelden genoeg ruimte in een nieuwsartikel om uit te leggen hoe prestatiecijfers van AI, zoals nauwkeurigheid, worden berekend. Als je cijfers als “90% nauwkeurigheid” opneemt in je artikel, zonder uit te leggen wat dat inhoudt, kan je publiek het succes van een tool niet goed inschatten.

Valkuil 18. Het idee dat AI ondoorgrondelijk is: Vaak worden AI-tools beschreven als ‘black boxes’: je zou als ‘gewone’ mens géén idee hebben wat er daarbinnen gebeurt. Maar volgens de onderzoekers kunnen AI-ontwikkelaars hun verantwoordelijkheid daardoor te makkelijk ontlopen.

Disclaimer. De onderzoekers hebben geprobeerd alle informatie te verifiëren bij de betrokken media. Waar dit niet is gelukt, is ervoor gekozen om op basis van de beschikbare informatie een zo volledig mogelijk beeld te schetsen van de software die (zeer waarschijnlijk) gebruikt is. De onderzoekers zijn daarbij bijgestaan door AI-experts. Omdat de experts de genoemde AI-toepassingen in meer algemene termen duiden, bestaat de kans op onjuiste details of onvolledigheden. Mocht u deze aantreffen, neem dan gerust contact op.