El papel del board en la gobernanza de inteligencia artificial
Por qué la supervisión de IA dejó de ser opcional para los consejos de administración. Y lo que los boards más preparados están haciendo diferente.

Claudio Reina
Socio-Fundador, Lattine Group
La gobernanza de inteligencia artificial no es un tema exclusivamente técnico. Es una cuestión de estrategia corporativa que exige atención directa del consejo de administración.
Según investigación del MIT CISR con 2.800 empresas, solo el 26% de los boards están digitalmente preparados para supervisar iniciativas de IA de forma eficaz. La diferencia entre estos consejos y los demás no es sutil: los boards AI-savvy entregan retorno sobre patrimonio 10,9 puntos porcentuales por encima del promedio.
El Stanford HAI documentó 233 incidentes de IA en 2024, un aumento del 56,4% respecto al año anterior. Son casos de sesgo algorítmico, decisiones automatizadas sin trazabilidad y violaciones de privacidad que generan impacto regulatorio, financiero y reputacional.
La cuestión no es si el consejo debe involucrarse con IA. Es si está preparado para hacerlo con la profundidad que el momento exige.
26%
de los boards están digitalmente preparados para IA
MIT CISR, 2025
233
incidentes documentados de IA en 2024
Stanford HAI, 2025
3x
más incidentes regulatorios sin gobernanza
Gartner, 2026
Por qué la IA es un tema de consejo, no de TI
La investigación del NACD revela una paradoja: el 95% de las organizaciones invierten en inteligencia artificial, pero solo el 34% incorporan gobernanza de IA en sus estructuras de supervisión. Menos del 25% poseen políticas de IA aprobadas por el board. Solo el 15% de los consejos reciben métricas regulares sobre el desempeño de sistemas inteligentes.
Esto significa que la mayoría de los consejos aprueban presupuestos de IA sin tener visibilidad sobre lo que se está construyendo, qué decisiones se están automatizando y cuál es el nivel de riesgo operacional y regulatorio involucrado.
El Assessment con IA de OORT existe exactamente para llenar esta brecha: mapea los sistemas inteligentes en operación, clasifica riesgos y entrega al consejo un panorama claro antes de escalar.
McKinsey confirma: solo el 39% de las empresas Fortune 100 divulgan alguna forma de supervisión de IA por el board. En solo el 17% de los casos, la gobernanza de inteligencia artificial es una responsabilidad explícita del consejo de administración.
El panorama regulatorio se está cerrando
La EU AI Act, en vigor desde agosto de 2024, es el marco regulatorio más completo del mundo para inteligencia artificial. Las obligaciones de compliance para sistemas de alto riesgo entran en vigor en agosto de 2026. Las multas pueden llegar a EUR 35 millones o el 7% de los ingresos globales anuales, lo que sea mayor.
En Brasil, el PL 2338/2023 fue aprobado por el Senado en diciembre de 2024 y tramita en la Cámara de Diputados. El proyecto crea el Sistema Nacional de Regulación de IA, coordinado por la ANPD, y exige evaluaciones de impacto algorítmico para sistemas de alto riesgo. Las empresas que operan en el mercado brasileño necesitan prepararse para requisitos de transparencia y trazabilidad que siguen la misma lógica europea.
El Stanford HAI registró 59 nuevas regulaciones de IA introducidas en 2024, el doble del año anterior. Gartner proyecta que para 2030, la regulación de IA se extenderá al 75% de las economías globales, creando un mercado de compliance que superará los US$ 1.000 millones.
Los consejos que no poseen visibilidad sobre qué sistemas inteligentes operan en su empresa están, en la práctica, asumiendo un pasivo regulatorio invisible.
“Los consejos que tratan la inteligencia artificial como tema estratégico, y no solo operacional, posicionan a sus empresas para liderar la próxima década de transformación.”
Los cinco pilares de la gobernanza de IA en el board
Los boards que supervisan IA de forma eficaz comparten una estructura consistente. No se trata de crear una capa burocrática sobre la tecnología, sino de garantizar que el consejo tenga los instrumentos correctos para ejercer su función fiduciaria.
01
Inventario de IA
Mapee todos los sistemas
02
Clasificación de riesgo
Alto, medio, bajo impacto
03
Comité de supervisión
Estructura dedicada en el board
04
Métricas y reporting
KPIs claros para el consejo
05
Auditoría continua
Decisiones rastreables y reversibles
Inventario de IA es el punto de partida. Muchos consejos desconocen cuántos sistemas inteligentes operan dentro de la organización. Sin un mapeo completo, no hay forma de evaluar la exposición al riesgo. El primer paso es saber lo que existe.
Clasificación de riesgo determina qué sistemas exigen supervisión más rigurosa. Los sistemas que toman decisiones sobre personas (contratación, crédito, salud) demandan controles diferentes de los sistemas que optimizan logística o recomiendan contenido. La EU AI Act define cuatro categorías: riesgo inaceptable, alto, limitado y mínimo.
Comité de supervisión es la estructura organizacional que conecta la operación con el consejo. Deloitte identificó que el 22% de los boards delegan gobernanza de IA al comité de auditoría y el 25% al comité de riesgo. Empresas como Microsoft operan con cuatro capas de gobernanza: comité de board, consejo AETHER, consejo de IA responsable y equipo operacional.
Métricas y reporting garantizan que el consejo reciba información accionable. No reportes técnicos sobre precisión de modelos, sino indicadores de impacto: costos evitados, incidentes detectados, compliance al día, adopción por los equipos. Solo el 15% de los boards reciben este tipo de información hoy (McKinsey).
Auditoría y trazabilidad cierran el ciclo. Cada decisión tomada por un sistema inteligente necesita ser registrada, explicable y reversible. Esto no es precaución. En jurisdicciones como la UE, es requisito legal. La plataforma OORT incorpora trazabilidad por diseño: cada acción de un agente es registrada, auditable y reversible.
Board sin gobernanza de IA
Aprueba presupuestos sin visibilidad
Riesgos regulatorios invisibles
Compliance reactivo (post-incidente)
Sin métricas de impacto para IA
Decisiones automatizadas sin auditoría
Board con gobernanza de IA
Supervisión estructurada por comité
Riesgos mapeados y clasificados
Compliance proactivo y preventivo
KPIs de IA en el reporting del consejo
Trazabilidad y reversibilidad
Gobernanza por diseño, no por parche
La mayoría de las empresas intenta aplicar gobernanza sobre sistemas de IA que no fueron diseñados para ser gobernables. El resultado es una capa burocrática que reduce velocidad sin reducir riesgo.
El enfoque de OORT es diferente. La capa de datos AI-First garantiza que la información sea ingerida, normalizada y gobernada antes de alimentar cualquier agente inteligente. Cada dato tiene origen, versión y control de acceso rastreables.
Los agentes OORT Flows operan con registro completo de acciones. Cada decisión automatizada puede ser auditada, explicada y revertida. Para un consejo de administración, esto significa tener la confianza de que la inteligencia artificial opera dentro de los límites definidos por la gobernanza corporativa.
Y el programa OORT Culture prepara liderazgos y equipos para operar con IA de forma responsable, garantizando que la adopción no supere la capacidad organizacional de supervisar.
+10.9pp
ROE superior en boards AI-savvy
MIT CISR, 2025
7%
multa máxima de la EU AI Act sobre ingresos globales
EU AI Act
48%
de los Fortune 100 divulgan supervisión de IA
EY, 2025
76%
planean adoptar ISO 42001
Deloitte, 2025
El ciclo continuo de gobernanza
La gobernanza de IA no es un proyecto con inicio y fin. Es un ciclo continuo que acompaña la evolución de los sistemas inteligentes dentro de la organización. Cada nueva implementación, cada nuevo caso de uso, cada cambio regulatorio reactiva el ciclo.
Ciclo de Gobernanza
Diagnosticar
Clasificar
Supervisar
Medir
Auditar
Gobernanza
Diagnosticar
Clasificar
Supervisar
Medir
Auditar
Gobernanza como ventaja, no como freno
El riesgo de descuidar la supervisión de IA es concreto: multas regulatorias, incidentes de sesgo, decisiones automatizadas no auditables y pérdida de confianza institucional. Pero el costo de oportunidad de no gobernar bien es igualmente relevante.
Los boards que estructuran gobernanza de IA no están frenando la innovación. Están creando las condiciones para que ocurra de forma sostenible, escalable y defendible ante reguladores, inversionistas y la sociedad.
El MIT demostró que estos boards entregan resultados financieros superiores. La EY mostró que el mercado está exigiendo transparencia. La regulación está llegando, tanto en Europa como en Brasil. El momento de estructurar la supervisión es ahora, no cuando ocurra el primer incidente.
Lea también
¿Está su board preparado para IA?
Comience con un assessment que mapea riesgos, oportunidades y nivel de madurez de su organización. Diagnóstico estructurado en días, no meses.
Agendar un AssessmentFuentes
- MIT CISR — AI-Savvy Boards Drive Superior Performance (2025)
- Deloitte — Governance of AI, 2nd Edition (2025)
- Stanford HAI — AI Index Report 2025
- Gartner — AI Regulatory Violations Predictions
- McKinsey — The AI Reckoning: How Boards Can Evolve
- EY — Cyber and AI Oversight Disclosures (2025)
- NACD — 2025 Board Practices Oversight Survey
- EU AI Act — European Commission
- Brazil AI Act — PL 2338/2023
- ISO/IEC 42001 — AI Management System Standard
Preguntas frecuentes
Según el MIT CISR, los boards digitalmente preparados para IA superan a sus pares en 10,9 puntos porcentuales de retorno sobre patrimonio. La gobernanza de IA involucra riesgos regulatorios, éticos y operacionales que impactan directamente el valor de la empresa, convirtiéndola en una responsabilidad fiduciaria del consejo. No es un tema de TI. Es un tema de estrategia corporativa.
Gartner proyecta que las empresas sin frameworks de gobernanza enfrentarán tres veces más incidentes regulatorios. La EU AI Act prevé multas de hasta el 7% de los ingresos globales. El Stanford HAI documentó 233 incidentes de IA en 2024, un aumento del 56% respecto al año anterior. Sin supervisión, las decisiones automatizadas operan sin trazabilidad, generando riesgo jurídico y reputacional.
Un comité eficaz comienza con cinco elementos: inventario completo de los sistemas de IA, clasificación por nivel de riesgo, estructura de reporting periódico al consejo, mecanismos de auditoría para decisiones automatizadas y políticas claras de ética y uso responsable. Microsoft, por ejemplo, opera con cuatro capas de gobernanza que incluyen comité de board, consejo de IA responsable y equipo operacional.
La EU AI Act, en vigor desde agosto de 2024, exige que las empresas mantengan inventario de sistemas de IA, clasifiquen riesgos, garanticen accountability y promuevan AI literacy a nivel ejecutivo. Las obligaciones de alto riesgo entran en vigor en agosto de 2026. Las multas pueden llegar a EUR 35 millones o el 7% de los ingresos globales anuales.
El PL 2338/2023, aprobado por el Senado en diciembre de 2024, crea el Sistema Nacional de Regulación de IA coordinado por la ANPD. Adopta un enfoque basado en riesgo con evaluaciones de impacto algorítmico obligatorias para sistemas de alto riesgo. Las empresas que operan en Brasil necesitan prepararse para requisitos de transparencia y trazabilidad similares a los europeos.
El MIT CISR demostró que los boards preparados para IA entregan ROE 10,9 puntos porcentuales por encima del promedio. La EY reporta que las divulgaciones de supervisión de IA en Fortune 100 se triplicaron entre 2024 y 2025. La gobernanza reduce costos de compliance, previene multas regulatorias y acelera la adopción responsable. No es costo: es ventaja competitiva medible.