Onderzoek haat op Twitter

Leerdoel: Je leert zelf data labelen en wordt je bewust van de subjectiviteit van labeling

Opdracht

Maak groepjes van drie en bekijken de tweets.
Bepaal per tweet: is dit haatdragend of agressief? En op welk gebied: gender, etniciteit, lichaam of een andere categorie?

1. Sigrid Kaag
2. Femke Halsema
3. Annabel Nanninga
4. Caroline van der Plas

Bespreking

De voorgestelde tweets zijn vaak negatief, maar dat wil niet zeggen dat ze ook haatdragend of agressief zijn. Let erop dat het erom gaat op wie of wat de negativiteit gericht is. Gaat het om de inhoud of om de persoon? En als het om een persoon gaat, gaat het dan om de politica in kwestie of iemand anders?

Tijdens het bespreken van de labels (haatdragend of niet-haatdragend, agressief of niet-agressief) zullen de studenten vermoedelijk ontdekken dat er een grijs gebied is. Dat grijze gebied wordt nog groter op het moment dat studenten proberen te bepalen of de haat of agressie gericht is op gender, etniciteit, of iets anders. Dit plaatst de uitkomsten van het onderzoek van De Groene Amsterdammer in perspectief.

Reflecteer met elkaar: zou iedereen de tweets hetzelfde classificeren? Waar verschillen de meningen? En hoe moet je daar als redactie mee omgaan?

Je kunt de oefening afronden door terug te keren naar het onderzoek van de Groene Amsterdammer. Hoe kijken jullie na deze oefening tegen de uitkomsten aan? Vinden jullie de aanpak van het medium wenselijk? Wat zouden jullie hetzelfde of juist anders doen?

Materiaal

Tijdsindicatie

Inclusief het lezen van het verhaal en de nabespreking: 60 minuten.

  • De docent kan de opdracht inkorten door de klas in groepjes te verdelen en de tweets te verdelen over de groepjes.
  • De docent kan de opdracht uitbreiden door de studenten zelf te laten zoeken naar tweets waarvan ze niet zeker zijn in welke categorie ze behoren.
  • Als docent kun je de studenten bovendien aanmoedigen om de beknopte uitleg over Inter Annotator Agreement te lezen, en te proberen dit met elkaar te bereiken.
Disclaimer. De onderzoekers hebben geprobeerd alle informatie te verifiëren bij de betrokken media. Waar dit niet is gelukt, is ervoor gekozen om op basis van de beschikbare informatie een zo volledig mogelijk beeld te schetsen van de software die (zeer waarschijnlijk) gebruikt is. De onderzoekers zijn daarbij bijgestaan door AI-experts. Omdat de experts de genoemde AI-toepassingen in meer algemene termen duiden, bestaat de kans op onjuiste details of onvolledigheden. Mocht u deze aantreffen, neem dan gerust contact op.