Podcast Over Media liet een podcastaflevering schrijven door een robot

AI kan veel. Ook zelfstandig de tekst van een hele podcastaflevering schrijven. Sinds ChatGPT op de markt is, kijken we er niet meer van op. Maar hoe werkt dat eigenlijk en wat betekent het voor journalisten?

📰 Het verhaal

Met de aflevering Onze Stokpaardjes, van Podcast Over Media, is iets bijzonders aan de hand. De gehele aflevering werd namelijk geschreven door AI. Daarvoor werkte Alexander Klöpping (oprichter van Blendle) en Ernst-Jan Pfauth (oprichter De Correspondent) samen met AI-onderzoeker Bart Bussmann, die op Twitter beschrijft wat er gebeurde:

“Sommige mensen hadden pas na meer dan tien minuten luisteren door dat er iets aan de hand was. Andere luisteraars hadden een soort psychedelische ervaring. Hun brein probeerde te snappen wat voor quasi-nonsens de presentatoren zeiden, maar voor ze het daadwerkelijk konden verwerken, werd er alweer iets anders surrealistisch gezegd.”

De tekst van de aflevering mocht grammaticaal dan wel kloppen, maar inhoudelijk was er geen touw aan vast te knopen. Het was het werk van AI.

De aflevering is een experiment van de twee makers, die in hun podcast hun licht schijnen op media, technologie, cultuur en ondernemen. In plaats van over technologie te praten, besloten de twee in deze aflevering uit te proberen wat er gebeurt als je AI aan het roer zet.

📈 De data

Om AI de tekst voor de podcast te laten bedenken, voedden de journalisten het AI-model met de scripts van alle eerdere afleveringen. Er waren al 150 afleveringen gemaakt, die de journalisten als input gebruikten.

Omdat het gebruikte algoritme het beste werkt op Engelstalige teksten, zijn de scripts eerst vertaald met behulp van Google Translate.

🦾 De AI

Wanneer je tekst laat bedenken door AI, dan noemen we dat Natural Language Generation (NLG). Voor het genereren van het podcastscript is gebruik gemaakt van GPT-3, een zeer groot taalmodel, dat is ontwikkeld door het bedrijf OpenAI – tegenwoordig vooral bekend van ChatGPT.

Wat je vooral moet weten, is dat het GPT-3 Taalmodel is gevoed met miljarden teksten dat het overal en nergens van het web heeft geschraapt. Welke teksten precies? Daarover bestaan alleen vermoedens. Precieze informatie heeft (behalve de medewerkers van OpenAI) niemand, toegang tot de onderliggende data evenmin.

Als je als mens een tekst wil schrijven, moet je eerst in staat zijn om teksten te kunnen verwerken en begrijpen. Je moet het alfabet kennen, weten wat een letter is, een woord en vervoegingen en hoe zinnen worden opgebouwd. Bij AI werkt dat net zo. Om een computer tekst te laten genereren moet het tekst eerst kunnen verwerken. Het neemt bestaande teksten als input. Dat noemen we Natural Language Processing (NLP). Vervolgens moet het systeem ook begrijpen waar die tekst over gaat, wat er in staat. Dat noemen Natural Language Understanding (NLU). Het herkennen van entiteiten (mensen, plaatsen, organisaties) of sentimenten (verontwaardiging, sarcasme, blijdschap) in teksten zijn typische NLU-taken.

Je kunt een taalmodel ook gericht trainen door het te voeden met relevante teksten. Door dat bijtrainen met eigen tekstdata kun je GPT-3 nog beter benutten voor heel specifieke taken, zoals het schrijven van een smartlap, marketingcontent of podcastscripts. De Correspondent trainde het model bij met de 150 eerder opgenomen afleveringen van POM.

Op basis van deze informatie kon het model zelf een tekst schrijven. Dat heet Natural Language Generation.

Deep Learning

Voor het ontwikkelen van GPT-3 is gebruik gemaakt van Deep Learning, een complexe variant van Machine Learning. We leggen het verschil tussen Deep Learning en Machine Learning uit aan de hand van een simpel voorbeeld.

Stel, je wil een systeem leren om het verschil tussen honden en katten te herkennen. Als je gebruik maakt van Machine Learning, biedt je het model eerst foto’s aan waarbij je aangeeft of het om een hond of een kat gaat. Dat zijn de labels. Je geeft zoveel voorbeelden met labels, tot het model in staat is om patronen te herkennen en zo zélf honden en katten te onderscheiden op nieuwe afbeeldingen.

Bij Deep Learning bied je het systeem alléén de foto’s aan, zonder het label ‘hond’ of ‘kat’. Op basis van enkel data (bijvoorbeeld de honden- en kattenfoto’s) ontdekt een Deep Learning AI-systeem zelfstandig patronen en regels. Om dat te kunnen, maakt DL gebruik van neurale netwerken. Ingewikkeld? Dat valt wel mee. Bekijk onderstaande video’s maar eens.

⚖️ Ethiek en betrouwbaarheid

Zoals de luisteraars van POM al merkten, genereert GPT-3 een script dat realistisch klinkt, maar waar inhoudelijk weinig van klopt. Een taalmodel kan teksten genereren die grammaticaal kloppen, en een logische vorm en stijl hebben, maar waarvan de informatie onjuist of zelfs onzinnig is.

Laat je GPT-3 bijvoorbeeld een recept genereren, dan ziet het resultaat er op het oog realistisch uit, maar blijkt er ruim honderd gram zout bij de ingrediënten van een koekjesrecept te staan. Als een taalmodel een journalistiek artikel zou genereren, kan hier ook onzin in staan. Of het artikel is grotendeels kloppend, maar bevate toch enkele essentiële fouten.

Een taalmodel als GPT-3 is in de praktijk een black box: het is voor de gebruiker compleet onduidelijk waar het model zich op baseert, en waarom er een bepaald resultaat uitkomt. Als gebruiker heb je daar dus ook geen controle over. Een ander probleem is dat het model voornamelijk gebaseerd is op dat waar het internet veel van heeft: Noord-Amerikaanse, witte data. De kans op bias is daarmee groot.

Bovendien roept het gebruik van bestaande teksten, vragen op rondom auteursrecht. Elke tekst is in feite geplagieerd, ook al bestaat het bronmateriaal uit duizenden teksten. Ook bij de resulterende teksten, is onduidelijk bij wie het auteursrecht ligt. Is dat de ontwikkelaar van het algoritme, is dat de gebruiker, of misschien zelfs het algoritme zelf? In de Verenigde Staten heeft het US Copyright Office in februari 2022 bepaald dat een kunstwerk dat door AI is gegenereerd, geen auteursrechten kent, omdat er geen sprake is van een menselijke auteur. Zou hier hetzelfde moeten gelden?

Lesmateriaal 📚

💡 Leerdoel: Je gaat zelf een artikel laten genereren en wordt je bewust van de mogelijkheden en beperkingen ervan

Welke keuzes maakt AI? Zijn die heel anders dan de keuzes die een journalist zou maken? Bedenk een onderwerp met een wie, wat, waar, waarom, wanneer en hoe. Laat de studenten hierover een kort nieuwsbericht schrijven. Laat ze vervolgens, over dezelfde wie, wat, waar, waarom, wanneer en hoe een nieuwsbericht maken met ChatGPT.

💭 Bespreking

Bespreek enkele verschillende versies. Wat valt op? Welke andere keuzes maakt de tool? Welk effect hebben deze keuzes?

🧰 Materiaal

⏱ Tijdsindicatie

Vanaf 25 minuten, waarvan:

  • 10 minuten om een fictief nieuwsbericht te schrijven
  • 5 minuten om een nieuwsbericht te laten genereren door ChatGPT
  • 10 minuten om na te spreken

💡 Leerdoel: Kennismaken met Deep Learning en automatische tekstgeneratie

Iedere student zoekt een nieuwsartikel zoeken van hetzelfde type. Bijvoorbeeld: iedereen zoekt een verslag van een voetbalwedstrijd, een column of een reisreportage. 

Laat een student de eerste zin van diens artikel noteren. Vraag de student vervolgens om alleen de laatste twee of drie woorden van deze zin hardop voor te lezen.

Laat een volgende student een zin uitkiezen uit diens eigen artikel, die aan lijkt te sluiten op het einde van de vorige zin. Ook deze student noteert de zin en leest de laatste woorden hardop voor.

Ga zo door tot iedereen aan de beurt is geweest. Niemand leest zijn hele zin hardop voor, alleen de laatste woorden. Ga vervolgens nog een keer in dezelfde volgorde de groep rond, maar laat dit keer elke student de hele zin voorlezen.

Bespreek de resulterende tekst. Sluiten de zinnen goed op elkaar aan? In hoeverre is de tekst grammaticaal correct? En in hoeverre klopt de informatie ook feitelijk?

🧰 Materiaal

⏱ Tijdsindicatie

Vanaf 15 minuten

Disclaimer.

De onderzoekers hebben geprobeerd alle informatie te verifiëren bij de betrokken media. Waar dit niet is gelukt, is ervoor gekozen om op basis van de beschikbare informatie een zo volledig mogelijk beeld te schetsen van de software die (zeer waarschijnlijk) gebruikt is. De onderzoekers zijn daarbij bijgestaan door AI-experts. Omdat de experts de genoemde AI-toepassingen in meer algemene termen duiden, bestaat de kans op onjuiste details of onvolledigheden. Mocht u deze aantreffen, neem dan gerust contact op.