← Back to all articles

AI-gegenereerde documenten en juridische geldigheid: de compliancekloof

SealDoc Team · · 6 min read

AI-systemen kunnen nu een conceptcontract, een compliancerapport of een gestructureerde factuur in seconden produceren. De uitvoer is grammaticaal correct, professioneel opgemaakt en bij een eerste blik vaak niet te onderscheiden van door mensen geschreven documenten.

Deze mogelijkheid creëert een compliancekloof die slecht wordt begrepen. De kloof gaat niet over of AI-schrijven goed is. De kloof ligt tussen “tekst genereren die eruitziet als een juridisch document” en “een document produceren dat juridisch geldig is.”

Dit zijn verschillende problemen, en het oplossen van het eerste lost het tweede niet op.

Wat een document juridisch geldig maakt

Juridische geldigheid is geen eigenschap van de tekst. Het is een eigenschap van het proces dat het document heeft geproduceerd en het bewijs dat over dat proces kan worden gepresenteerd.

Een contract is juridisch geldig als het is gevormd door partijen met de bevoegdheid om te contracteren, hun werkelijke wederzijdse instemming uitdrukt en tot stand is gekomen via een proces dat kan worden aangetoond als het wordt betwist. De woorden in het contract zijn van belang, maar herkomst ook: wie heeft ingestemd, wanneer, onder welke omstandigheden en kan een en ander worden bewezen in een geschil?

Een factuur is juridisch geldig voor belastingdoeleinden als ze de vereiste velden in het vereiste formaat bevat, is uitgereikt door de geidentificeerde partij en na uitgifte niet is gewijzigd. Formaatconformiteit is noodzakelijk maar niet voldoende. De factuur moet ook aantoonbaar ongewijzigd zijn.

Een compliancerapport is juridisch geldig als het nauwkeurig de toestand weergeeft die het beweert te documenteren, is geproduceerd door een methodologie die kan worden onderzocht en toerekenbaar is aan een verantwoordelijke partij.

In elk geval vereist geldigheid procesintegriteit, niet alleen inhoudskwaliteit. AI kan de inhoud produceren. Het kan het processbewijs niet produceren.

Het hallucinatieprobleem in juridische documenten

AI-taalmodellen produceren uitvoer die statistisch plausibel is gezien hun trainingsgegevens. Ze halen geen feiten op; ze genereren tekst. Voor sommige documenttypen is dit onderscheid irrelevant: een op sjablonen gebaseerde factuur waarbij de AI bedragen invult vanuit gestructureerde invoer is in wezen deterministisch en het hallucinatierisico is laag.

Voor documenten waarbij de AI substantiele inhoud genereert (een contractclausule, een regelgevingsanalyse, een compliance-bewering), is het risico hoger. Het model kan:

  • Regelgevingen citeren die niet bestaan of zijn vervangen
  • Feiten over partijen vermelden die onjuist of verouderd zijn
  • Verplichte openbaarmakingen weglaten omdat ze niet in de trainingsgegevens voor soortgelijke documenten stonden
  • Clausulecombinaties produceren die intern inconsistent zijn op manieren die niet detecteerbaar zijn door elke clausule afzonderlijk te lezen

De praktische consequentie: AI-gegenereerde juridische documenten vereisen een substantiele beoordelingsstap, niet alleen een proefleesstap. De beoordeling moet worden uitgevoerd door iemand met de domeinkennis om fouten te herkennen die de AI niet als fouten zou markeren, omdat de AI niet weet wat het niet weet.

Compliancescanning als afzonderlijke laag

Voor gestructureerde documenttypen waarvoor een formeel schema of regelset bestaat, kan geautomatiseerde compliancescanning verifiëren dat de AI-gegenereerde uitvoer aan de formele vereisten voldoet, onafhankelijk van of de inhoud juist is.

Een EN16931-conforme factuur heeft formele validatieregels: verplichte velden, rekenkundige relaties tussen bedragen, btw-categorie-codes en Schematron-bedrijfsregels. Deze kunnen automatisch en deterministisch worden gecontroleerd. Een AI-factuuregenerator die alle EN16931 Schematron-regels doorstaat, is minimaal formeel correct, ook al zijn de factuurbedragen zelf onjuist (wat een gegevensinvoerfout zou zijn, geen AI-uitvoerfout).

Voor contracten en rapporten zijn formele schema’s zeldzamer, maar ze bestaan in specifieke domeinen: hypotheekdocumentatie (EU-gestandaardiseerd ESIS-formaat), sleutelinformatiedocumenten voor verzekeringen (EU PRIIPs KID-formaat) en openbare aanbestedingskennisgevingen (EU eForms).

Het patroon is: gebruik AI voor generatiesnelheid, gebruik formele validatie voor complianceborging en houd ze als afzonderlijke pijplijnstadia. De AI-uitvoer is een invoer voor de validatiestap, niet het eindproduct.

Chain of custody voor AI-gegenereerde documenten

Een AI-gegenereerd document heeft een herkomstvraag die door mensen geschreven documenten niet hebben: wat het heeft gegenereerd, met welke invoer, op welk moment en was de uitvoer gewijzigd voordat het werd gebruikt?

Dit is om twee redenen van belang. Ten eerste: als een document wordt betwist, moet je kunnen aantonen dat het generatieproces deugdelijk was. Ten tweede: AVG artikel 22 creëert specifieke verplichtingen rondom geautomatiseerde besluitvorming die individuen beinvloedt. Een contract of mededeling volledig gegenereerd door AI kan openbaarmakingsverplichtingen triggeren als het iemands rechten beinvloedt.

Het antwoord is hetzelfde als voor elk ander document: een hashgekoppeld auditspoor dat de generatiegebeurtenis vastlegt (inclusief de modelversie, de invoerparameters en de uitvoerhash), eventuele volgende beoordelings- en goedkeuringsstappen en de uiteindelijke archiveringsactie. Dit spoor bewijst niet dat de inhoud correct is, maar bewijst wel dat het proces is gevolgd.

Verklaarbaarheids-eisen voor compliancebeslissingen

Sommige AI-ondersteunde complianceworkflows omvatten beslissingen, niet alleen documentgeneratie: een document classificeren in een bewaarcategorie, een contractclausule markeren voor beoordeling of bepalen of een transactie extra verificatie vereist.

Voor beslissingen die individuen beinvloeden of die wettelijk auditeerbaar moeten zijn, moet het AI-onderdeel een verklaring produceren naast de uitvoer. Een classificatie die zegt “10 jaar bewaren” zonder redenering is niet nuttig voor een auditor die vraagt waarom die classificatie is gemaakt.

Verklaarbaarheid betekent in deze context een gestructureerde uitvoer die de classificatie, het betrouwbaarheidsniveau en de kenmerken of regels die de beslissing hebben gestuurd, vastlegt. Deze uitvoer maakt deel uit van het auditspoor van het document en is opgenomen in het evidence pack.

Zonder verklaarbaarheid produceren AI-beslissingen in complianceworkflows uitvoer die niet retrospectief kan worden verdedigd. De beslissing lijkt willekeurig omdat er geen record is van waarom ze is genomen.

De governance-vraag voor AI in documentworkflows

Organisaties die AI gebruiken in documentworkflows hebben een governance-kader nodig dat antwoord geeft op:

  • Welke documenttypen zijn goedgekeurd voor AI-generatie zonder verplichte menselijke beoordeling?
  • Welke vereisen een menselijke beoordelingsstap voordat het document kan worden gearchiveerd of verzonden?
  • Wat is het proces voor het opsporen en corrigeren van AI-fouten die in een archief terechtkomen?
  • Hoe worden AI-modelupdates afgehandeld? Vereist een modelupdate hervalidatie van eerder gegenereerde documenten?
  • Welk auditspoor bestaat er voor de AI-generatiestap zelf?

Dit zijn geen vragen over AI-kwaliteit. Het zijn vragen over procescontroles die van toepassing zouden zijn op elk geautomatiseerd systeem in een gereguleerde omgeving.

SealDoc en AI-documentworkflows

SealDoc biedt de bewijslaag voor AI-gegenereerde documenten. De generatiestap (door welk AI-systeem dan ook) produceert een document. SealDoc valideert dat document aan de hand van de toepasselijke formaatregels (EN16931, PDF/A-3, XRechnung of aangepaste schema’s), past een RFC 3161-tijdstempel toe, legt het validatieresultaat en de tijdstempel vast in een hashgekoppeld auditspoor en verpakt alles in een Legal Evidence Pack.

Het resultaat is dat het AI-gegenereerde document dezelfde bewijsinfrastructuur heeft als een door mensen geschreven: een bewijsbaar aanmaakmoment, een formeel validatieresultaat vastgelegd bij aanmaak en een manipulatie-evident auditspoor.

Wat SealDoc niet doet, is de inhoudelijke juistheid van de inhoud verifiëren. Dat is een domeinspecifieke menselijke beoordelingsstap. De infrastructuur verwerkt alles wat formeel verifieerbaar is. Het oordeel over of de contractclausules passend zijn, blijft bij de mensen die verantwoordelijk zijn voor het document.

Die scheiding is de juiste architectuur voor AI in compliance-grade workflows: AI voor generatiesnelheid, formele validatie voor structurele compliance, menselijke beoordeling voor inhoudelijke juistheid en bewijsinfrastructuur voor alles dat een uitdaging moet overleven.


← Back to all articles