ICIJ onderzocht 340.000 medische ongevallen en ontdekte dat de slachtoffers opvallend vaak vrouw zijn

Tegenwoordig is er soms eerder te veel dan te weinig informatie voorhanden. Hoe zorg je als journalist dan dat je door de bomen het bos blijft zien? En hoe baan je je een weg door grote hoeveelheden bestanden? Het International Consortium for Investigative Journalists besloot AI te gebruiken om 340.000 medische dossiers te doorzoeken.

Het verhaal

Met medische hulpstukken kan van alles misgaan. Spiraaltjes die baarmoeders perforeren, lekkende implantaten, hartkastjes die een schok geven, kunstheupen die voor infecties zorgen. Het viel journalisten op dat de meeste verhalen over (soms levensgevaarlijke) problemen met medische hulpstukken over vrouwen gaan. Dit geldt ook voor hulpstukken die door mannen en vrouwen gebruikt kunnen worden.

De Amerikaanse Food and Drug Administration (FDA) verzamelt alle klachten en registreert daarbij of het om een man of vrouw gaat. Maar de organisatie houdt de informatie over het geslacht van de slachtoffers voor zichzelf, terwijl dit om veiligheidsredenen hoogst relevante publieke informatie is.

Daarom besloten journalisten van The International Consortium of Investigative Journalists (ICIJ) AI in te zetten om 340.000 medische dossiers te doorzoeken en te bepalen in hoeveel gevallen medische hulpstukken respectievelijk vrouwen en mannen in gevaar brachten. Want hoewel het geslacht niet expliciet genoemd wordt, is deze vaak te herleiden uit de woorden die in de context gebruikt worden – zij, haar, hij, zijn, hem, etc., maar ook woorden zoals baarmoeder of prostaat. Wat blijkt? 67% van de mensen die slachtoffer werden van medische hulpstukken, zijn vrouw. Volgens ICIJ zou de FDA dan ook meer moeten doen om het verschil in risico’s voor mannen en vrouwen te onderzoeken. Het hele verhaal lees je hier.

De data 

ICIJ onderzocht 340.000 medische dossiers van patiënten in de Verenigde Staten. In deze dossiers verraadt de tekst soms dat het om een man of vrouw gaat, maar wordt het geslacht van de patiënt niet expliciet genoemd.

De AI

Om de 340.000 dossiers te analyseren, werd de tool Snorkel gebruikt. Het proces ziet er als volgt uit:

    1. Allereerst stellen mensen regels op waar het AI-model zich aan moet houden. Bijvoorbeeld:

‘Als het woord “haar” gebruikt wordt, gaat het om een vrouwelijke patiënt’

‘Als het woord “hij” gebruikt wordt, gaat het om een mannelijke patiënt’

    1. Het AI-model gaat met deze regels aan de slag. Het neemt een klein, willekeurig deel van de dossiers door (duizend in dit geval) en bepaalt of het, volgens de regels die zijn opgesteld, om een mannelijke of vrouwelijke patiënt gaat, of dat het geslacht onbekend is.
    2. Mensen classificeren dezelfde duizend dossiers zelf en kijken of (en waar) het AI-model tot dezelfde conclusies komt of verschilt met die van de menselijke classificaties. Waar nodig worden de regels aangescherpt of veranderd. Zo controleren mensen dus of het AI-model zijn werk goed doet.

Bij die controle bleek dat het model moeite had het geslacht correct te bepalen als er in het dossier meerdere mensen worden genoemd (bijvoorbeeld familieleden of andere gezondheidsmedewerkers). Het was dan niet altijd duidelijk of ‘hij’ of ‘zij’ betrekking had op de patiënt of op een andere betrokkene. Er werden aanvullende regels opgesteld om dit te corrigeren. Wat verder bleek, is dat er soms een mannelijk of vrouwelijk woord aan de medische hulpstukken wordt gehangen, terwijl dit niets zegt over het geslacht van de patiënt. Ook hiervoor werden aanvullende regels opgesteld.

  1. Na het perfectioneren van de regels, kon het model worden losgelaten op alle 340.000 files. Het slaagde erin om voor 23% van de dossiers het geslacht van de patiënt te bepalen. Dat is geen slechte score, aangezien de dossiers zijn opgesteld met de bedoeling het geslacht niet te onthullen.
  2. Tot slot voerden de journalisten nog een laatste check uit. Hiervoor selecteerden de journalisten steekproefsgewijs een aantal dossiers om te bekijken of het oordeel van het AI-model over het geslacht van de patiënt overeenkwam met het oordeel van de journalist. Op die manier werd een laatste menselijke check gedaan. Het model bleek het in 96% van de gevallen bij het juiste eind te hebben.

Over dit type AI

De AI die ICIJ gebruikte, is een voorbeeld van Rule-Based AI. Dat wil zeggen: mensen regels om geslacht te herkennen in de dossiers, en het systeem gebruikt die regels om dit vervolgens zelf te doen. Het systeem denkt dus niet zelf na, maar houdt zich simpelweg aan bepaalde regels. In dit geval kon zo’n regel zijn:

‘Als een gynaecologische klacht wordt genoemd, hang je het label “vrouw” aan het dossier’.

Wil je meer weten over Rule-Based AI? Hier leggen we het je nog eens rustig uit.

Ethiek en betrouwbaarheid

Het grote voordeel van Rule-Based AI is dat het goed uitlegbaar en navolgbaar is. Mensen hebben de regels tenslotte bedacht, en niet de machine zelf (zoals bij machine learning het geval is). De transparantie van Rule-Based AI is in potentie dus hoog. ICIJ heeft bovendien de gehele codering openbaar gemaakt, waardoor niet alleen de journalisten zelf inzicht hebben in de werking ervan, maar het publiek ook.

Deze transparantie is ook nodig om de resultaten goed te kunnen duiden. In de regels waarop het model getraind is, worden namelijk aannames gedaan. Ze gaan er bijvoorbeeld vanuit dat een ‘husband’ per definitie de partner van een vrouw is. Dat idee is natuurlijk achterhaald, want twee mannen kunnen ook trouwen.

Ook wanneer iemand met zijn zoon of dochter komt, wordt ervan uitgegaan dat het een vrouw betreft. Uiteraard is ook dat kort door de bocht. Want waarom zou een man zijn kind niet mee kunnen nemen naar de dokter? Het is dan ook goed om in gedachten te houden dat de regels vooroordelen kunnen bevatten. We noemen dat ook wel biasHet feit dat Rule-Based AI mensenwerk is, is daarom tegelijk een voordeel en een nadeel. Het zorgt voor transparantie en inzichtelijkheid, maar tegelijkertijd is er een risico op bias.

Disclaimer. De onderzoekers hebben geprobeerd alle informatie te verifiëren bij de betrokken media. Waar dit niet is gelukt, is ervoor gekozen om op basis van de beschikbare informatie een zo volledig mogelijk beeld te schetsen van de software die (zeer waarschijnlijk) gebruikt is. De onderzoekers zijn daarbij bijgestaan door AI-experts. Omdat de experts de genoemde AI-toepassingen in meer algemene termen duiden, bestaat de kans op onjuiste details of onvolledigheden. Mocht u deze aantreffen, neem dan gerust contact op.