Saltar al contenido

Mapeo de Cumplimiento: EU AI Act e ISO 42001

Este documento mapea las capacidades del Venturalitica SDK a los artículos del EU AI Act y los controles de ISO/IEC 42001 relevantes para sistemas de IA de alto riesgo.


Requisito: Establecer un sistema de gestión de riesgos a lo largo del ciclo de vida del sistema de IA.

Capacidad del SDKCómo cumple con Art 9
Archivos de política OSCALControles de riesgo codificados como reglas legibles por máquina
enforce()Evaluación automatizada de riesgos contra controles definidos
Dashboard Fase 1Documentación de identidad del sistema y contexto de riesgo
Dashboard Fase 2Editor visual de políticas para definición de controles de riesgo

Ejemplo: Definir un control de riesgo que verifique la disparidad por edad:

- control-id: credit-age-disparate
description: "Age disparate impact ratio > 0.5"
props:
- name: metric_key
value: disparate_impact
- name: threshold
value: "0.50"
- name: operator
value: gt
- name: "input:dimension"
value: age

Requisito: Los conjuntos de datos de entrenamiento, validación y prueba deben ser relevantes, representativos, libres de errores y completos.

Capacidad del SDKCómo cumple con Art 10
Métrica class_imbalanceVerifica la representación de clases minoritarias
Métrica disparate_impactVerifica tasas de selección a nivel de grupo
Métrica data_completenessMide valores faltantes
k_anonymity, l_diversity, t_closenessCalidad de datos con preservación de privacidad
Patrón de política de datosArchivo separado data_policy.oscal.yaml para verificaciones previas al entrenamiento

Métricas clave para Art 10:

MétricaCláusula Art 10Propósito
class_imbalance10.3 (representativo)Asegurar que las clases minoritarias no sean eliminadas
disparate_impact10.2.f (examen de sesgo)Regla de los Cuatro Quintos entre grupos
data_completeness10.3 (libre de errores)Detectar datos faltantes
group_min_positive_rate10.3 (representativo)Tasa positiva mínima por grupo

Artículo 11: Documentación Técnica (Anexo IV)

Sección titulada «Artículo 11: Documentación Técnica (Anexo IV)»

Requisito: La documentación técnica debe elaborarse antes de que el sistema de IA se comercialice.

Capacidad del SDKCómo cumple con Art 11
Archivos de traza de monitor()Recopilación automática de evidencia (código, datos, hardware)
Hash de evidencia (SHA-256)Prueba criptográfica de integridad de ejecución
Dashboard Fase 4Generación del documento del Anexo IV mediante LLM
Sonda BOMLista de materiales de software para reproducibilidad

Archivos de evidencia producidos:

.venturalitica/
trace_<session>.json # Execution trace with AST analysis
results.json # Compliance results per control
Annex_IV.md # Generated documentation (Phase 4)

Requisito: Los sistemas de IA de alto riesgo deben diseñarse para garantizar que su funcionamiento sea suficientemente transparente.

Capacidad del SDKCómo cumple con Art 13
Método Caja de CristalTraza completa de ejecución, no solo resultados
Análisis de código ASTRegistra qué funciones fueron invocadas
Huella digital de datosSHA-256 de los datos de entrada en tiempo de ejecución
Sonda de artefactosHash de los archivos de política utilizados

Artículo 15: Precisión, Robustez y Ciberseguridad

Sección titulada «Artículo 15: Precisión, Robustez y Ciberseguridad»

Requisito: Los sistemas de IA de alto riesgo deben alcanzar un nivel adecuado de precisión, robustez y ciberseguridad.

Capacidad del SDKCómo cumple con Art 15
accuracy_score, precision_score, recall_score, f1_scoreMétricas de rendimiento
demographic_parity_diff, equal_opportunity_diffMétricas de equidad sobre predicciones del modelo
Patrón de política de modeloArchivo separado model_policy.oscal.yaml para verificaciones posteriores al entrenamiento
Sonda de hardwareMonitoreo de CPU, RAM, GPU como evidencia de robustez
Sonda de carbonoSeguimiento del consumo energético

Métricas clave para Art 15:

MétricaCláusula Art 15Propósito
accuracy_score15.1 (precisión)El modelo alcanza la precisión mínima
demographic_parity_diff15.3 (no discriminación)Las tasas de predicción son equitativas
equalized_odds_ratio15.3 (no discriminación)Las tasas de error son equitativas
counterfactual_fairness15.3 (no discriminación)Análisis de equidad causal

ISO 42001 define un marco de Sistema de Gestión de IA (AIMS). Venturalitica se mapea a las siguientes áreas de control:

Control ISO 42001DescripciónMapeo del SDK
A.2 Política de IAPolítica de IA a nivel organizacionalLos archivos de política OSCAL definen políticas legibles por máquina
A.4 Evaluación de Riesgos de IAIdentificar y evaluar riesgos de IAenforce() evalúa controles; Dashboard Fase 2 visualiza riesgos
A.5 Tratamiento de Riesgos de IAImplementar controles para mitigar riesgosLos controles OSCAL con umbrales implementan el tratamiento de riesgos
A.6 Evaluación de Impacto del Sistema de IAEvaluar el impacto sobre individuos/gruposMétricas de equidad (disparate_impact, demographic_parity_diff)
A.7 Datos para Sistemas de IAGestión de la calidad de datosPatrón de política de datos + métricas de calidad de datos
A.8 Documentación del Sistema de IADocumentar el ciclo de vida del sistema de IATrazas de monitor() + Dashboard Fase 4 (generación Anexo IV)
A.9 Rendimiento del Sistema de IAMonitorear el rendimiento del sistemaMétricas de rendimiento + recopilación de evidencia de monitor()
A.10 Relaciones con Terceros y ClientesTransparencia de la cadena de suministroLa sonda BOM captura todas las dependencias
Cláusula ISO 42001DescripciónMapeo del SDK
6.1 Evaluación de riesgosDeterminar riesgos y oportunidadesLa política OSCAL define umbrales de riesgo medibles
6.2 Objetivos de IAEstablecer objetivos mediblesCada control OSCAL es un objetivo medible con aprobado/reprobado
Cláusula ISO 42001DescripciónMapeo del SDK
9.1 MonitoreoMonitorear el rendimiento del sistema de IAenforce() + monitor() proporcionan evaluación continua
9.2 Auditoría internaAuditar el AIMSLas trazas de evidencia proporcionan pista de auditoría
9.3 Revisión por la direcciónRevisar la efectividad del AIMSEl Dashboard proporciona una interfaz visual de revisión
Cláusula ISO 42001DescripciónMapeo del SDK
10.1 No conformidadGestionar fallos de controlesenforce() señala fallos; strict=True lanza excepciones
10.2 Mejora continuaMejorar el AIMSVersionar políticas, re-ejecutar auditorías, rastrear mejoras a lo largo del tiempo

El Patrón de Dos Políticas y el Mapeo Regulatorio

Sección titulada «El Patrón de Dos Políticas y el Mapeo Regulatorio»

El patrón de dos políticas de Venturalitica se mapea directamente a la estructura regulatoria:

Regulation Policy File SDK Function Phase
----------- --------------- ---------------- -----
Art 10 (Data) --> data_policy.oscal.yaml --> enforce(target=...) Pre-training
Art 15 (Model) --> model_policy.oscal.yaml-> enforce(prediction=..) Post-training
Art 11 (Docs) --> (generated) --> Dashboard Phase 4 Reporting
Art 9 (Risk) --> (both policies) --> All of the above Continuous

Una auditoría de cumplimiento completa produce la siguiente cadena de evidencia:

EvidenciaEU AI ActISO 42001Archivo
Definición de políticaArt 9A.2, A.5*.oscal.yaml
Resultados de calidad de datosArt 10A.7results.json
Resultados de equidad del modeloArt 15A.6, A.9results.json
Traza de ejecuciónArt 13A.8trace_*.json
BOM de softwareArt 15A.10trace_*.json (sección BOM)
Métricas de hardware/carbonoArt 15A.9trace_*.json (sondas)
Documentación técnicaArt 11 / Anexo IVA.8Annex_IV.md