Nieuwe mogelijkheden maar ook nieuwe verantwoordelijkheden
Slimmer dan de mens? ChatGPT-o3 en het belang van lange context in E-Discovery
Onderkop
door Hans Henseler, beeld Shutterstock
Taalmodellen die met een grote context werken, kunnen een beter inzicht krijgen in een zeer grote hoeveelheid data. In combinatie met redenerend vermogen, wordt AI volgens Hans Henseler geschikter voor het slimmer zoeken in digitale sporen. Maar de mens moet wel de regie houden.
Vlak voor kerst 2024 trok OpenAI alle aandacht met de aankondiging van het o3-model, dat volgens de eerste berichten “slimmer is dan de mens”. Klinkt dat overdreven? Mogelijk. Maar wie de voorganger o1 in actie heeft gezien, zal beamen dat de stap naar o3 lang niet zo onrealistisch lijkt. Het o1-preview model, geïntroduceerd in september, verbaasde al met zijn vermogen om complexe vraagstukken stapsgewijs te doorgronden. Nu gaat de blik verder: kan een AI echt ‘diep nadenken’? En welke gevolgen heeft dat voor onder meer E-Discovery en digitaal forensisch onderzoek?
De combinatie van grote context en redenerend vermogen maakt AI geschikter voor het slimmer zoeken in digitale sporen
Data-explosie en de zoektocht naar inzicht
In strafzaken, civiele procedures en forensisch onderzoek worden we overspoeld door data: e-mails, chatberichten, documenten, logbestanden en meer. Alleen al de omvang (vaak terabytes) maakt het vinden van relevant bewijs een gigantische klus. Daar komt bij dat er niet alleen gezocht moet worden naar de spreekwoordelijke naald in de hooiberg, maar ook verbanden tussen verschillende stukken informatie moeten worden gelegd: wie sprak met wie, wanneer en in welke context? Een eenvoudige zoekopdracht schiet dan vaak tekort.
Nieuwere taalmodellen met een langere context bieden perspectief. Anders dan bij de oudere modellen, waarbij de tekst in kleine brokjes wordt opgeknipt, kan een taalmodel met een grote context bijvoorbeeld in één keer een compleet chatdossier of tientallen documenten overzien. Zo wordt de kans kleiner dat belangrijke aanwijzingen over het hoofd worden gezien.
Van snelle chatbot naar stapsgewijze denker
Waar eerdere taalmodellen vooral indruk maakten met hun (relatief) vlotte antwoorden, gaat het bij modellen als o1 en o3 veel meer om grondigheid. Een treffend voorbeeld daarvan ondervond ik onlangs zelf. Mijn zoon en zijn familie waren op reis naar Singapore, maar hun initiële vlucht vanuit Amsterdam moest boven Duitsland terugkeren. Dat leidde tot een reeks omboekingen waardoor ze onbedoeld op oudejaarsdag om 10:50 uur vanuit Rome alsnog naar Singapore vertrokken. Het gevolg hiervan was dat ze letterlijk het nieuwe jaar zouden invliegen en pas op 1 januari in Singapore zouden landen. Mijn vraag aan o1 was op het oog simpel: “Wanneer en waar passeert mijn zoon middernacht lokale tijd, en hoe laat is het dan in Nederland?”
In plaats van direct te antwoorden, begon het o1 model aan een 1 minuut en 9 seconden durende redenering. Het model vergeleek vertrektijden en vluchtroutes, bekeek de typische tijdzoneverschillen boven Europa, het Midden-Oosten en Azië, en berekende uiteindelijk dat mijn zoon rond 19:30 uur Nederlandse tijd waarschijnlijk boven (oostelijk) India vloog, precies op het moment dat het daar middernacht zou zijn.
Dit wordt chain-of-thought reasoning genoemd: het model voert als het ware verschillende denkstappen uit. Het vergt zelfs extra rekentijd (soms wel een halve minuut of langer) om nauwkeurig en transparant te blijven. We krijgen hierdoor een taalmodel dat niet slechts een antwoord “raadt”, maar dat antwoord ook onderbouwt. En dat is cruciaal in een forensisch onderzoek, want daar telt niet alleen wát je vindt, maar ook hoe je daartoe komt.
Bij modellen als o1 en o3 gaat het veel meer om grondigheid dan om snelheid
Kansen in E-Discovery
In digitaal forensisch onderzoek en e-discovery kan dit een revolutie betekenen. Stel je voor: een AI die niet in fragmenten, maar juist integraal naar al het digitale bewijs kijkt. Dat maakt het mogelijk subtiele aanwijzingen te zien die door versnipperd zoeken worden gemist. Combineer dat met stapsgewijze redenering en je krijgt een systeem dat niet alleen keywords herkent, maar ook een hypothese vormt over hoe en waarom een verdachte handelde.
Die ontwikkeling biedt echter niet alleen nieuwe mogelijkheden, maar ook nieuwe verantwoordelijkheden. Hoe ga je bijvoorbeeld om met vertrouwelijke of verschoningsgerechtigde informatie in zo’n enorme dataverzameling? Op dit moment zoeken opsporingsdiensten voornamelijk met trefwoorden en e-mailadressen, maar dat is omslachtig en verre van waterdicht. Bovendien ligt ongewenst inzien van zulke informatie op de loer. Juist op dit punt kan AI nu ook helpen — mits het model goed is ingericht en transparant werkt.
Meer spelers, snellere innovatie
Dat het o1-model van OpenAI complexe gesprekken en data kan analyseren, staat niet op zichzelf. De AI-wereld bevindt zich (nog steeds) in een stroomversnelling, waarin meerdere grote spelers elkaar naar een hoger niveau tillen. OpenAI bouwt voort op het fundament van o1 met de aankondiging van o3. Opvallend is de snelheid van deze ontwikkeling: o3 werd slechts drie maanden na o1 geïntroduceerd, een teken van steeds sneller evoluerende taalmodellen.
Ook andere grote namen zetten significante stappen. Google innoveert met NotebookLM (bekend geworden door de populaire podcast functie) en Gemini 2.0, waarbij Gemini’s Thinking Mode AI-denklijnen inzichtelijker maakt en multimodale input en output toevoegt. Microsoft breidt zijn Copilot-assistent verder uit. Niet alleen in Office 365 en andere Microsoft-producten maar ook in consumentenelektronica zoals recent bleek uit aankondigingen door o.a. Samsung en LG op de Consumer Electronics Show in Las Vegas. Meta is een belangrijke leverancier van open-source LLM-technologie en heeft Llama 4 aangekondigd voor 2025, terwijl het Chinese DeepSeek indrukwekkende vooruitgang boekt op het gebied van redeneren en concurreert met o1.
Zoeken naar de balans
De sprong van ChatGPT-o1 naar o3 laat zien hoezeer AI in drie maanden tijd kan veranderen. De combinatie van grote context en redenerend vermogen maakt AI geschikter voor het slimmer zoeken in digitale sporen. Maar de mens moet wel de regie houden. Gebruikers blijven verantwoordelijk voor de vraag die ze stellen, de interpretatie van het antwoord, en de juridische en ethische kaders waarbinnen ze opereren. Met andere woorden, het taalmodel is een copiloot die gebruikers ondersteunt bij het zoeken naar informatie. Net zoals dit artikel is geschreven met hulp van o1.

Iets over de auteur eventueel