Dokumenty generované AI a právní platnost: mezera v souladu s předpisy
Systémy AI nyní dokážou během sekund vytvořit návrh smlouvy, zprávu o souladu s předpisy nebo strukturovanou fakturu. Výstup je gramaticky správný, profesionálně formátovaný a na první pohled je od člověkem psaných dokumentů k nerozeznání.
Tato schopnost vytváří mezeru v souladu s předpisy, která není dobře pochopena. Nejde o to, zda je text generovaný AI dobrý. Jde o rozdíl mezi „generováním textu, který vypadá jako právní dokument” a „vytvořením dokumentu, který je právně platný”.
To jsou různé problémy a vyřešení prvního neznamená vyřešení druhého.
Co dělá dokument právně platným
Právní platnost není vlastností textu. Je to vlastnost procesu, který dokument vytvořil, a důkazů, které lze o tomto procesu předložit.
Smlouva je právně platná, pokud byla uzavřena stranami způsobilými ke smluvnímu jednání, vyjadřuje jejich skutečnou vzájemnou shodu a byla vytvořena procesem, který lze prokázat v případě zpochybnění. Slova ve smlouvě jsou důležitá, ale stejně tak je důležitý původ: kdo souhlasil, kdy, za jakých okolností a lze to prokázat ve sporu?
Faktura je právně platná pro daňové účely, pokud obsahuje povinné údaje v požadovaném formátu, byla vydána identifikovanou stranou a nebyla po vydání změněna. Formální shoda je nutná, ale nestačí. Faktura musí být také prokazatelně nezměněná.
Zpráva o souladu s předpisy je právně platná, pokud přesně odráží stav, který tvrdí dokumentovat, byla vyprodukována metodologií, která může být přezkoumána, a je přiřazena odpovědné straně.
V každém případě platnost vyžaduje integritu procesu, nejen kvalitu obsahu. AI může vytvořit obsah. Nemůže vytvořit důkazy o procesu.
Problém halucinací v právních dokumentech
Jazykové modely AI produkují výstupy, které jsou statisticky plausibilní s ohledem na jejich trénovací data. Nezískávají fakta; generují text. U některých typů dokumentů je tento rozdíl irelevantní: faktura na základě šablony, kde AI vyplňuje částky ze strukturovaného vstupu, je v podstatě deterministická a riziko halucinace je nízké.
U dokumentů, kde AI generuje věcný obsah (smluvní doložka, regulatorní analýza, tvrzení o souladu s předpisy), je riziko vyšší. Model může:
- Citovat předpisy, které neexistují nebo byly nahrazeny
- Uvádět fakta o stranách, která jsou nesprávná nebo zastaralá
- Vynechat povinná zveřejnění, protože nebyla v trénovacích datech pro podobné dokumenty
- Vytvářet kombinace doložek, které jsou vnitřně nekonzistentní způsoby nezjistitelnými při čtení každé doložky izolovaně
Praktický důsledek: dokumenty generované AI vyžadují věcný krok přezkoumání, nikoli pouze korekturní čtení. Přezkoumání musí provést někdo s doménovou znalostí potřebnou k odhalení chyb, které by AI neoznačila jako chyby, protože AI neví, co neví.
Skenování shody jako samostatná vrstva
U strukturovaných typů dokumentů, kde existuje formální schéma nebo soubor pravidel, může automatizované skenování shody ověřit, že výstup generovaný AI splňuje formální požadavky, nezávisle na tom, zda je obsah přesný.
Faktura splňující EN16931 má formální pravidla validace: povinné pole, aritmetické vztahy mezi částkami, kódy kategorií DPH a obchodní pravidla Schematron. Tato pravidla lze kontrolovat automaticky a deterministicky. Generátor faktur AI, který projde všemi pravidly EN16931 Schematron, je alespoň formálně správný, i když samotné částky na faktuře jsou nesprávné (což by byla chyba zadání dat, nikoli chyba výstupu AI).
U smluv a zpráv jsou formální schémata vzácnější, ale v konkrétních doménách existují: hypoteční dokumentace (formát EU standardizovaného ESIS), dokumenty s klíčovými informacemi pro pojištění (formát EU PRIIPs KID) a oznámení o veřejných zakázkách (EU eForms).
Vzorec je: využívejte AI pro rychlost generování, formální validaci pro zajištění shody, a udržujte je jako samostatné fáze pipeline. Výstup AI je vstupem do fáze validace, nikoli konečným produktem.
Řetězec kontroly pro dokumenty generované AI
Dokument generovaný AI má otázku původu, které lidmi vytvářené dokumenty nečelí: co ho generovalo, s jakým vstupem, v jaký čas a byl výstup před použitím upraven?
To je důležité ze dvou důvodů. Za prvé, pokud je dokument zpochybněn, musíte být schopni prokázat, že proces generování byl správný. Za druhé, článek 22 GDPR vytváří specifické povinnosti týkající se automatizovaného rozhodování, které ovlivňuje jednotlivce. Smlouva nebo oznámení generované zcela pomocí AI mohou vyvolat povinnosti zveřejnění, pokud ovlivňují práva osoby.
Odpověď je stejná jako u jakéhokoli jiného dokumentu: auditní stopa hašového řetězce, která zaznamenává událost generování (včetně verze modelu, vstupních parametrů a haše výstupu), veškeré následné kroky přezkoumání a schválení a finální akci archivace. Tato stopa neprokazuje, že obsah je správný, ale prokazuje, že byl dodržen postup.
Požadavky na vysvětlitelnost pro compliance rozhodnutí
Některé workflowsasistované AI zahrnují rozhodnutí, nikoli jen generování dokumentů: klasifikaci kategorie uchovávání dokumentu, označení smluvní doložky k přezkoumání nebo určení, zda transakce vyžaduje další ověření.
U rozhodnutí, která ovlivňují jednotlivce nebo která musí být ze zákona auditovatelná, musí složka AI produkovat vysvětlení spolu s výstupem. Klasifikace, která říká „uchovávat 10 let” bez zdůvodnění, není pro auditora, který se ptá proč, použitelná.
Vysvětlitelnost v tomto kontextu znamená strukturovaný výstup, který zaznamenává klasifikaci, úroveň jistoty a rysy nebo pravidla, která rozhodnutí řídila. Tento výstup se stává součástí auditní stopy dokumentu a je zahrnut v balíčku důkazů.
Bez vysvětlitelnosti produkují AI rozhodnutí v compliance workflowsech výstupy, které nelze zpětně obhájit. Rozhodnutí vypadá svévolně, protože neexistuje záznam o tom, proč bylo učiněno.
Otázka governance AI v dokumentových workflowsech
Organizace používající AI v dokumentových workflowsech potřebují rámec governance, který odpovídá:
- Které typy dokumentů jsou schváleny pro generování AI bez povinného lidského přezkoumání?
- Které vyžadují krok lidského přezkoumání před archivací nebo odesláním dokumentu?
- Jaký je postup pro odhalení a opravu chyb AI, které se dostanou do archivu?
- Jak se nakládá s aktualizacemi modelu AI? Vyžaduje aktualizace modelu opětovnou validaci dříve generovaných dokumentů?
- Jaká auditní stopa existuje pro samotný krok generování AI?
To nejsou otázky o kvalitě AI. Jsou to otázky o procesních kontrolách, které by se uplatnily na jakýkoli automatizovaný systém v regulovaném prostředí.
SealDoc a workflowsy s dokumenty AI
SealDoc poskytuje důkazní vrstvu pro dokumenty generované AI. Krok generování (jakýmkoli systémem AI) vytvoří dokument. SealDoc validuje tento dokument oproti příslušným pravidlům formátu (EN16931, PDF/A-3, XRechnung nebo vlastní schémata), aplikuje RFC 3161 časové razítko, zaznamenává výsledek validace a razítko v auditní stopě hašového řetězce a vše zabalí do balíčku právních důkazů.
Výsledkem je, že dokument generovaný AI má stejnou důkazní infrastrukturu jako ten vytvořený člověkem: prokazatelný čas vzniku, formální výsledek validace zachycený při vzniku a auditní stopa odolná vůči manipulaci.
Co SealDoc nedělá, je ověřovat věcnou správnost obsahu. To je doménově specifický krok lidského přezkoumání. Infrastruktura zpracovává vše, co je formálně ověřitelné. Úsudek o vhodnosti smluvních doložek zůstává na lidech odpovědných za dokument.
Toto oddělení je správnou architekturou pro AI v compliance workflowsech: AI pro rychlost generování, formální validace pro strukturální shodu, lidské přezkoumání pro věcnou správnost, důkazní infrastruktura pro vše, co musí přežít zpochybnění.