ik wil…    ai begrijpen     journalistieke voorbeelden      lesmateriaal     zoeken

Algoritmes onder de loep

Leerdoel: Je begrijpt hoe overheden algoritmes ontwikkelen en inzetten om risico’s te profileren. Je kent de gevaren hiervan voor burgers, en snapt het belang van de waakhondfunctie van de journalistiek. Je weet wat wel en niet is toegestaan bij algoritmische profilering en waarom.

Opdracht

Bij de bestrijding van bijstandsfraude gebruikte de gemeente Rotterdam een slim fraude-algoritme. Op basis daarvan kregen bijstandsontvangers risico-scores. In de code stonden kenmerken die de gemeente gebruikte, zoals de leeftijd, het geslacht en het niet nakomen van afspraken. De journalisten achterhaalden hoe deze kenmerken precies in het algoritme werden toegepast.

Lees dit en dit artikel over het bijstandsfraude algoritme van de gemeente Rotterdam. Vorm groepjes van drie tot vier studenten en bespreek de volgende variabelen die de gemeente hanteerde. Geef bij elke variabele aan: mag de gemeente deze volgens jou wel of niet gebruiken om een risicoprofiel van burgers op te stellen? Bepaal waarom wel of niet. Dat doe je niet op basis van je eigen mening, maar op basis van de criteria in figuur 1.

VariabeleWelNietCriteria
Leeftijd   
Postcode, wijk   
No show bij afspraak met gemeente   
Geslacht, gender   
Reminders voor aanleveren informatie   
Reden voor afspraak met gemeente (jaarlijks gesprek, intake)   
Participatie in traject naar werk (training, werkplaats, maatschappelijke taak)   
Type contact (mailen, bellen, appen, post)   
Type woonvorm (met huisgenoot, met partner)   
Kostendelersnorm (hoeveel huisgenoten, wie tellen mee)   
Aantal kinderen   
Laaggeletterdheid   
ADHD   
Bezoekt psycholoog   
Sector werkervaring (horeca, bouw, logistiek)   
Assertiviteit   
Professioneel voorkomen   
Figuur 1. Criteria die bepalen of een variabele wel of niet meegerekend mag worden

De combinatie van de criteria ‘Inhoudelijk verband met doel’ en ‘Beheersbare risico’s’ geldt als toelaatbaar. De variabele mag dan worden gebruikt. Variabelen die scoren op een of meer van de andere criteria mag de gemeente niet gebruiken.

Achter het tweede icoontje staat ‘proxy discriminatie’. Daarmee wordt onbedoelde discriminatie bedoeld. Een voorbeeld: We weten allemaal dat etnisch profileren niet mag. Je mag dus niet iemands afkomst meewegen in het algoritme. Maar sommige variabelen wijzen (mogelijk) indirect ook op iemands afkomst. In sommige wijken wonen bijvoorbeeld misschien meer mensen met een migratieachtergrond dan in andere, waardoor het meerekenen van iemands postcode kan leiden tot proxy discriminatie.

Bespreking

Als iedereen klaar is, bespreek je de tabellen klassikaal:

Zijn jullie het met elkaar eens?
Waren er twijfelgevallen?

Vergelijk de matrices ook met het advies dat een commissie over deze zaak uitbracht (zie antwoordmodel voor de docent). Komt dit overeen met jullie besluit?

Hoe ver mag algoritmische profilering gaan? Vinden jullie dat het doel (efficientie) opweegt tegen de gevolgen van mogelijke discriminatie?

Hoe transparant moet de overheid zijn over de gebruikte algoritmes? Wat is de rol van journalisten hierin, vinden jullie?

Materiaal

  • laptop
  • uitdraai matrix op papier (1 per groepje)
  • pennen
  • whiteboardmarkers

Tijdsindicatie

45 minuten totaal, te verdelen in:

  • 15 minuten: introductie, lezen artikelen
  • 15 minuten: vormen groepjes en scoren variabelen
  • 15 minuten: bespreking uitkomsten en discussie
Disclaimer. De onderzoekers hebben geprobeerd alle informatie te verifiëren bij de betrokken media. Waar dit niet is gelukt, is ervoor gekozen om op basis van de beschikbare informatie een zo volledig mogelijk beeld te schetsen van de software die (zeer waarschijnlijk) gebruikt is. De onderzoekers zijn daarbij bijgestaan door AI-experts. Omdat de experts de genoemde AI-toepassingen in meer algemene termen duiden, bestaat de kans op onjuiste details of onvolledigheden. Mocht u deze aantreffen, neem dan gerust contact op.