ik wil…    ai begrijpen     journalistieke voorbeelden      lesmateriaal  

Antwoordmodel: Identificeer de valkuilen van journalisten bij het verslaan van AI

Valkuilen per verhaal:

  1. The Machine Are Learning, and So Are the Students – The New York Times

Het nieuwsartikel bevat een reeks uitspraken die je kunt scharen onder een aantal valkuilen.

Laten we eerst inzoomen op de volgende citaten:

1) “Artificial intelligence is starting to take over repetitive tasks in classrooms, like grading.”

2) “A plethora of online courses and tutorials also have freed teachers from lecturing.”

3) “The system’s auto-grader teaches itself how to score.”

Deze citaten impliceren ten onrechte dat AI steeds onafhankelijker wordt van menselijk toezicht. Daarmee trapt het in de valkuil van het toekennen van agency aan AI. De citaten benoemen niet hoeveel werk er zit in het opnemen van de lezingen en het onderhouden van online bronnen. Ze besteden daardoor geen of weinig aandacht aan de menselijke arbeid die nodig is om het model te laten draaien. Daarmee vallen de auteurs ook in de valkuil van het bagatelliseren van menselijke arbeid. De derde zin beweert ook ten onrechte dat de tools zelf kunnen leren hoe ze huiswerk kunnen beoordelen, terwijl de tool in feite alleen maar de antwoorden van studenten vergelijkt met de juiste antwoorden die (door mensen) in het systeem zijn ingevoerd.

Tot slot wordt in het artikel ook gezegd:

3) “for years, people have tried to re-engineer learning with artificial intelligence, but it was not until the machine-learning revolution of the past seven years that real progress has been made.” 

Dit citaat valt in de valkuil van overdrijving. Het beschrijft AI-systemen als revolutionair of baanbrekend zonder concreet bewijs van hun prestaties, waardoor een verkeerde indruk wordt gewekt van hoe nuttig ze in een bepaalde omgeving zullen zijn.

Ten slotte trapt het artikel ook in de valkuil van het onbenoemd laten van mogelijke beperkingen. Het artikel vermeldt terloops dat er mogelijk privacyproblemen zijn, maar geeft direct daarna een citaat van de ontwikkelaar van de tool om deze zorgen weg te nemen. Wanneer deze beperkingen niet worden besproken, kunnen lezers een vertekend beeld krijgen van de risico’s die aan AI-tools zijn verbonden.

Kortom, dit is een artikel van 1500 woorden met onvoldoende nauwkeurigheid, evenwichtigheid en context. De informatie is bijna volledig afkomstig van woordvoerders van het bedrijf en de auteur leunt sterk op het PR-materiaal van Bakpax. Niettemin werd Bakpax in mei 2022 gesloten. Dat is geen verrassing: EdTech was overhyped. In de afgelopen tien jaar zijn er honderden EdTech-producten geweest die beweerden een onderwijsrevolutie teweeg te brengen. Ondanks miljarden dollars aan financiering mislukten velen van hen. Helaas benoemt het artikel dit soort contextuele, historische informatie niet.

  1. AI may be as effective as medical specialists at diagnosing disease – CNN

In september 2019 publiceerde CNN dit artikel over een AI-onderzoek. Het nieuwsartikel bevat een reeks uitspraken die in de valkuilen vallen. Ten eerste worden de volgende zinnen in het artikel vermeld:

1) “[The study] focused on an AI technique called deep learning, which employs algorithms, big data, and computing power to emulate human intelligence.”

2) “A new scientific review has concluded that artificial intelligence (AI) may be able to diagnose disease as successfully as human healthcare professionals.”

Deze zinnen lopen in de valkuil van het vergelijken van AI met menselijke intelligentie en vaardigheden. Dit impliceert ten onrechte dat AI-hulpmiddelen en mensen op gelijke voet concurreren, waardoor het feit wordt verborgen dat AI-hulpmiddelen slechts in een beperkt aantal omgevingen werken en slechts een klein deel van de verscheidenheid aan stappen uitvoeren die een diagnose vormen. Het impliceert dat AI-algoritmen op dezelfde manier leren als mensen. Dergelijke vergelijkingen kunnen geloofwaardigheid verlenen aan beweringen dat AI ‘bewust’ is.

In het artikel staat ook de volgende zin:

3) “The big caveat is, in my opinion, that the story is not ‘AI may be as good as health professionals’, but that ‘the general standard of evaluating performance of AI is shoddy.”

Dit is een citaat van een deskundige die aangeeft wat de echte boodschap van het onderzoek is. Het artikel begraaft deze informatie echter aan het uiteinde. Daarom valt het in de valkuil van het minder benadrukken van beperkingen. Hoewel beperkingen worden besproken en een deskundige wordt geciteerd die ze kan uitleggen, worden beperkingen in de structuur van het artikel gebagatelliseerd door ze aan het einde van het artikel te plaatsen en ze een beperkte ruimte te geven.

Bovendien is de omslagafbeelding van het artikel een robotarm die een mens de hand schudt, ook al gaat het onderzoek over het vinden van patronen in medische beelden. Deze humanoïde beelden geven een misleidend beeld van AI. Daarom valt dit in de valkuil van suggestieve beelden. Het geeft lezers de verkeerde indruk dat AI-tools belichaamd zijn, ook al is het alleen maar software die patronen uit data leert.

  1. Is AI finally closing in on human intelligence? – Financial Times

Ook in dit artikel komen meerdere valkuilen naar voren, bijvoorbeeld:

1) “In Altman’s view, the unfolding AI revolution may well be more consequential for humanity than the preceding agricultural, industrial and computer revolutions combined.”

Het artikel citeert kritiekloos Sam Altman, medeoprichter van OpenAI, die AI vergelijkt met historische transformaties. Daarmee trapt het in de valkuil van het maken van onkritische vergelijkingen met historische transformaties. Het vergelijken van AI-tools met grote historische gebeurtenissen zoals de uitvinding van elektriciteit of de industriële revolutie is een geweldige marketingtactiek. Wanneer nieuwsartikelen deze termen echter overnemen, brengen ze een vals gevoel van potentieel en vooruitgang over – vooral als deze beweringen niet worden ondersteund door bewijsmateriaal uit de echte wereld.

Voorts vermeldt het artikel:

2) “Turing was one of the first people to imagine how the world would be transformed by machines that could think. In his 1950 paper Computing Machinery and Intelligence, he explained that computers might one day become so good at impersonating humans that it would be impossible to distinguish them from flesh-and-blood beings (…) Seventy years on, thanks to the rapid expansion of the internet and exponential increases in computing power, we have moved into a machine-enabled world that would stretch even Turing’s imagination.”

In deze passage komen drie valkuilen naar voren.

Ten eerste: de valkuilen van het vergelijken van AI met menselijke vaardigheden en intelligentie. Het impliceert ten onrechte dat AI-instrumenten en mensen op gelijke voet concurreren en dat AI-algoritmen op dezelfde manier leren als mensen. Als we het hebben over ‘machines die kunnen denken’, kan dit onterecht het idee scheppen dat AI een ‘bewustzijn’ heeft.

De auteurs trappen daarnaast in de valkuil van overdrijving als ze zeggen: “we have moved into a machine-enabled world that would stretch even Turing’s imagination.” Het beschrijven van AI-systemen als revolutionair of baanbrekend zonder concreet bewijs van hun prestaties geeft een verkeerde indruk van hoe nuttig ze zijn. Er is geen bewijs dat AI “has become so good at impersonating humans that it would be impossible to distinguish them from flesh-and-blood beings.”

  1. A.I. Here, There, Everywhere – The New York Times

Ook in dit artikel komen enkele valkuilen naar voren. Kijk bijvoorbeeld eens naar deze twee passages:

1) “Chatbots, for example, can be clumsy and frustrating today, but they will eventually become truly conversational, learning our habits and personalities and even develop personalities of their own.”

2) “A.I. tutors hold the promise of truly personalized education available to anyone in the world with an Internet-connected device — provided they are willing to surrender some privacy.”

Deze zinnen kun je scharen onder de valkuil van het doen van ongerechtvaardigde beweringen over de toekomstige vooruitgang van AI. Beweringen zoals deze zijn slechts speculaties en kunnen een verkeerde indruk geven over te verwachten AI-ontwikkelingen.

3) “I ask the gods of artificial intelligence to turn on the light.”

In deze zin trapt de auteur in de valkuil van het gebruik van diepgaande termen om banale acties van AI te beschrijven. Zinnen als deze impliceren dat een AI-tool iets opmerkelijks doet tijdens de werking. Het verbergt inzicht in hoe alledaags de taken zijn en dat AI-tools precies functioneren zoals verwacht.

Tot slot: Hoe kunnen journalisten voorkomen dat ze in dergelijke valkuilen trappen?

Naast de lijst met 18 valkuilen, kunnen de volgende vijf strategieën journalisten helpen bij het schrijven van nauwkeurigere, realistischere en betrouwbaardere berichtgeving over AI:

1) Bevraag aannames: betwist aannames en beweringen van AI-ontwikkelaars en bedrijven. Vraag je geïnterviewden altijd om bewijsmateriaal of onderbouwing van hun beweringen

2) Maak onderscheid tussen hype en realiteit: Wees alert op sensatiezucht en hype. AI-ontwikkelingen worden vaak overdreven weergegeven. Maak onderscheid tussen wat nu mogelijk is en wat in de toekomst haalbaar zou kunnen zijn.

3) Overweeg ethische implicaties: onderzoek de ethische implicaties van AI-ontwikkelingen, inclusief kwesties die verband houden met vooringenomenheid, privacy en aansprakelijkheid. Houd rekening met de maatschappelijke impact en potentiële risico’s die gepaard gaan met AI-toepassingen.

4) Zoek naar diverse perspectieven: raadpleeg een diverse scala aan deskundigen. Kijk dus verder dan de technici en bevraag bijvoorbeeld ook ethici of beleidsmakers. Dit draagt bij aan een uitgebreider en evenwichtiger beeld van de AI-ontwikkelingen.

5) Erken onzekerheid: Erken de onzekerheden en beperkingen van de AI-ontwikkelingen. Benadruk dat sommige aspecten van AI nog experimenteel zijn en dat de uitkomsten kunnen variëren.