← Back to all articles

Documentos generados por IA y validez legal: la brecha de cumplimiento

SealDoc Team · · 7 min read

Los sistemas de IA pueden producir ahora un borrador de contrato, un informe de cumplimiento o una factura estructurada en cuestión de segundos. El resultado es gramaticalmente correcto, con formato profesional y a menudo indistinguible de los documentos redactados por humanos a primera vista.

Esta capacidad crea una brecha de cumplimiento que no se comprende bien. La brecha no tiene que ver con si la escritura de IA es buena. La brecha está entre “generar texto que parece un documento legal” y “producir un documento que sea legalmente válido”.

Estos son problemas diferentes, y resolver el primero no resuelve el segundo.

Qué hace que un documento sea legalmente válido

La validez legal no es una propiedad del texto. Es una propiedad del proceso que produjo el documento y de la evidencia que puede presentarse sobre ese proceso.

Un contrato es legalmente válido si fue formado por partes con capacidad para contratar, expresa su consentimiento mutuo genuino y fue creado mediante un proceso que puede demostrarse si se cuestiona. Las palabras del contrato importan, pero también importa la procedencia: quién estuvo de acuerdo, cuándo, en qué circunstancias y si algo de esto puede probarse en una disputa.

Una factura es legalmente válida a efectos fiscales si contiene los campos requeridos en el formato requerido, fue emitida por la parte identificada y no fue alterada después de su emisión. La conformidad de formato es necesaria pero no suficiente. La factura también debe ser comprobablemente inalterada.

Un informe de cumplimiento es legalmente válido si refleja con precisión el estado que afirma documentar, fue producido mediante una metodología que puede ser examinada y es atribuible a una parte responsable.

En cada caso, la validez requiere integridad del proceso, no solo calidad del contenido. La IA puede producir el contenido. No puede producir la evidencia del proceso.

El problema de las alucinaciones en documentos legales

Los modelos de lenguaje de IA producen salidas que son estadísticamente plausibles dado su conjunto de entrenamiento. No recuperan hechos; generan texto. Para algunos tipos de documentos esta distinción es irrelevante: una factura basada en plantilla donde la IA rellena importes a partir de una entrada estructurada es esencialmente determinista y el riesgo de alucinación es bajo.

Para documentos donde la IA genera contenido sustantivo (una cláusula contractual, un análisis regulatorio, una afirmación de cumplimiento), el riesgo es mayor. El modelo puede:

  • Citar normativas que no existen o que han sido derogadas
  • Afirmar hechos sobre las partes que son incorrectos o desactualizados
  • Omitir divulgaciones obligatorias porque no estaban en los datos de entrenamiento para documentos similares
  • Producir combinaciones de cláusulas que son internamente incoherentes de formas que no son detectables leyendo cada cláusula de forma aislada

La consecuencia práctica: los documentos legales generados por IA requieren un paso de revisión sustantiva, no solo de corrección de pruebas. La revisión debe ser realizada por alguien con el conocimiento del dominio para detectar errores que la IA no marcaría como errores, porque la IA no sabe lo que no sabe.

El escáner de cumplimiento como capa separada

Para los tipos de documentos estructurados donde existe un esquema formal o un conjunto de reglas, el escáner de cumplimiento automatizado puede verificar que el resultado generado por IA cumple los requisitos formales, independientemente de si el contenido es preciso.

Una factura conforme con EN16931 tiene reglas de validación formales: campos obligatorios, relaciones aritméticas entre importes, códigos de categoría de IVA y reglas de negocio Schematron. Estas pueden comprobarse automáticamente y de forma determinista. Un generador de facturas con IA que pase todas las reglas Schematron de EN16931 es al menos formalmente correcto, aunque los propios importes de la factura sean incorrectos (lo que sería un error de datos de entrada, no un error de salida de la IA).

Para contratos e informes, los esquemas formales son menos frecuentes, pero existen en dominios específicos: documentación hipotecaria (formato ESIS estandarizado de la UE), documentos de información clave de seguros (formato KID PRIIPs de la UE) y avisos de contratación pública (eForms de la UE).

El patrón es: usar la IA para la velocidad de generación, usar la validación formal para la garantía de cumplimiento, mantenerlos como etapas de flujo de proceso separadas. La salida de la IA es una entrada para la etapa de validación, no el producto final.

Cadena de custodia para documentos generados por IA

Un documento generado por IA tiene una pregunta de procedencia que los documentos redactados por humanos no tienen: qué lo generó, con qué entrada, en qué momento y si la salida fue modificada antes de usarse.

Esto importa por dos razones. Primero, si un documento es cuestionado, necesitas poder mostrar que el proceso de generación fue sólido. Segundo, el artículo 22 del RGPD crea obligaciones específicas en torno a la toma de decisiones automatizada que afecta a los individuos. Un contrato o aviso generado íntegramente por IA puede activar obligaciones de divulgación si afecta a los derechos de una persona.

La respuesta es la misma que para cualquier otro documento: una pista de auditoría con cadena de hashes que registre el evento de generación (incluida la versión del modelo, los parámetros de entrada y el hash de la salida), cualquier paso posterior de revisión y aprobación, y la acción de archivo final. Esta pista no prueba que el contenido sea correcto, pero prueba que se siguió el proceso.

Requisitos de explicabilidad para decisiones de cumplimiento

Algunos flujos de trabajo de cumplimiento asistidos por IA implican decisiones, no solo generación de documentos: clasificar la categoría de retención de un documento, marcar una cláusula contractual para revisión o determinar si una transacción requiere verificación adicional.

Para decisiones que afectan a individuos o que deben ser auditables por ley, el componente de IA debe producir una explicación junto con la salida. Una clasificación que dice “conservar durante 10 años” sin ningún razonamiento no es útil para un auditor que pregunta por qué se tomó esa decisión.

La explicabilidad en este contexto significa una salida estructurada que registre la clasificación, el nivel de confianza y las características o reglas que impulsaron la decisión. Esta salida pasa a formar parte de la pista de auditoría del documento y se incluye en el paquete de evidencia.

Sin explicabilidad, las decisiones de la IA en los flujos de trabajo de cumplimiento producen salidas que no pueden defenderse retrospectivamente. La decisión parece arbitraria porque no hay registro de por qué se tomó.

La cuestión de la gobernanza para la IA en los flujos de trabajo documentales

Las organizaciones que usan IA en flujos de trabajo documentales necesitan un marco de gobernanza que responda a:

  • ¿Qué tipos de documentos están aprobados para la generación por IA sin revisión humana obligatoria?
  • ¿Cuáles requieren un paso de revisión humana antes de que el documento pueda archivarse o enviarse?
  • ¿Cuál es el proceso para detectar y corregir errores de IA que lleguen a un archivo?
  • ¿Cómo se gestionan las actualizaciones del modelo de IA? ¿Requiere una actualización del modelo la revalidación de documentos generados anteriormente?
  • ¿Qué pista de auditoría existe para el propio paso de generación de IA?

Estas no son preguntas sobre la calidad de la IA. Son preguntas sobre controles de proceso que se aplicarían a cualquier sistema automatizado en un entorno regulado.

SealDoc y los flujos de trabajo de documentos con IA

SealDoc proporciona la capa de evidencia para los documentos generados por IA. El paso de generación (por cualquier sistema de IA) produce un documento. SealDoc valida ese documento frente a las reglas de formato aplicables (EN16931, PDF/A-3, XRechnung o esquemas personalizados), aplica un sello de tiempo RFC 3161, registra el resultado de la validación y el sello de tiempo en una pista de auditoría con cadena de hashes, y empaqueta todo en un Paquete de Evidencia Legal.

El resultado es que el documento generado por IA tiene la misma infraestructura de evidencia que uno redactado por humanos: una hora de creación demostrable, un resultado de validación formal capturado en el momento de la creación y una pista de auditoría resistente a manipulaciones.

Lo que SealDoc no hace es verificar la precisión sustantiva del contenido. Ese es un paso de revisión humana específico del dominio. La infraestructura gestiona todo lo que es formalmente verificable. El juicio sobre si las cláusulas del contrato son apropiadas corresponde a las personas responsables del documento.

Esa separación es la arquitectura correcta para la IA en flujos de trabajo de calidad para el cumplimiento: IA para la velocidad de generación, validación formal para el cumplimiento estructural, revisión humana para la precisión sustantiva, e infraestructura de evidencia para todo lo que necesite sobrevivir a un desafío legal.


← Back to all articles