OORT Labs
Blog
Insights

Il ruolo del board nella governance dell’intelligenza artificiale

Perché la supervisione dell’IA non è più opzionale per i consigli di amministrazione. E cosa stanno facendo di diverso i board più preparati.

Claudio Reina··12 min di lettura

La governance dell’intelligenza artificiale non è un tema esclusivamente tecnico. È una questione di strategia aziendale che richiede l’attenzione diretta del consiglio di amministrazione.

Secondo una ricerca del MIT CISR su 2.800 aziende, solo il 26% dei board è digitalmente preparato a supervisionare efficacemente le iniziative di IA. La differenza tra questi consigli e gli altri non è sottile: i board AI-savvy generano un rendimento del capitale proprio superiore di 10,9 punti percentuali rispetto alla media.

Lo Stanford HAI ha documentato 233 incidenti legati all’IA nel 2024, un aumento del 56,4% rispetto all’anno precedente. Si tratta di casi di bias algoritmico, decisioni automatizzate senza tracciabilità e violazioni della privacy che generano impatto normativo, finanziario e reputazionale.

La questione non è se il consiglio debba occuparsi di IA. È se è preparato a farlo con la profondità che il momento richiede.

26%

dei board è digitalmente preparato per l’IA

MIT CISR, 2025

233

incidenti di IA documentati nel 2024

Stanford HAI, 2025

3x

più incidenti normativi senza governance

Gartner, 2026

Perché l’IA è un tema da consiglio, non da IT

La ricerca del NACD rivela un paradosso: il 95% delle organizzazioni investe in intelligenza artificiale, ma solo il 34% integra la governance dell’IA nelle proprie strutture di supervisione. Meno del 25% possiede policy di IA approvate dal board. Solo il 15% dei consigli riceve metriche regolari sulle prestazioni dei sistemi intelligenti.

Ciò significa che la maggior parte dei consigli approva budget per l’IA senza avere visibilità su ciò che viene costruito, quali decisioni vengono automatizzate e quale livello di rischio operativo e normativo è coinvolto.

L’Assessment IA di OORT esiste proprio per colmare questa lacuna: mappa i sistemi intelligenti in funzione, classifica i rischi e fornisce al consiglio un quadro chiaro prima di scalare.

McKinsey conferma: solo il 39% delle aziende Fortune 100 divulga una qualsiasi forma di supervisione dell’IA da parte del board. Solo nel 17% dei casi, la governance dell’intelligenza artificiale è una responsabilità esplicita del consiglio di amministrazione.

Il panorama normativo si sta stringendo

L’EU AI Act, in vigore da agosto 2024, è il quadro normativo più completo al mondo per l’intelligenza artificiale. Gli obblighi di compliance per i sistemi ad alto rischio entrano in vigore ad agosto 2026. Le sanzioni possono raggiungere 35 milioni di euro o il 7% del fatturato globale annuo, a seconda di quale importo sia superiore.

In Brasile, il PL 2338/2023 è stato approvato dal Senato a dicembre 2024 ed è in fase di esame alla Camera dei Deputati. Il progetto crea il Sistema Nazionale di Regolamentazione dell’IA, coordinato dall’ANPD, e richiede valutazioni d’impatto algoritmico per i sistemi ad alto rischio. Le aziende che operano nel mercato brasiliano devono prepararsi a requisiti di trasparenza e tracciabilità che seguono la stessa logica europea.

Lo Stanford HAI ha registrato 59 nuove normative sull’IA introdotte nel 2024, il doppio dell’anno precedente. Gartner prevede che entro il 2030 la regolamentazione dell’IA si estenderà al 75% delle economie globali, creando un mercato della compliance che supererà 1 miliardo di dollari.

I consigli che non hanno visibilità sui sistemi intelligenti operanti nella propria azienda stanno, di fatto, assumendo una passività normativa invisibile.

«I consigli che trattano l’intelligenza artificiale come tema strategico, e non solo operativo, posizionano le proprie aziende per guidare il prossimo decennio di trasformazione.»

I cinque pilastri della governance dell’IA nel board

I board che supervisionano efficacemente l’IA condividono una struttura coerente. Non si tratta di creare uno strato burocratico sulla tecnologia, ma di garantire che il consiglio disponga degli strumenti adeguati per esercitare la propria funzione fiduciaria.

01

Inventario IA

Mappate tutti i sistemi

02

Classificazione del rischio

Impatto alto, medio, basso

03

Comitato di supervisione

Struttura dedicata nel board

04

Metriche e reporting

KPI chiari per il consiglio

05

Audit continuo

Decisioni tracciabili e reversibili

Inventario IA è il punto di partenza. Molti consigli non sanno quanti sistemi intelligenti operano all’interno dell’organizzazione. Senza una mappatura completa, non è possibile valutare l’esposizione al rischio. Il primo passo è sapere cosa esiste.

Classificazione del rischio determina quali sistemi richiedono una supervisione più rigorosa. I sistemi che prendono decisioni sulle persone (assunzione, credito, sanità) richiedono controlli diversi rispetto ai sistemi che ottimizzano la logistica o raccomandano contenuti. L’EU AI Act definisce quattro categorie: rischio inaccettabile, alto, limitato e minimo.

Comitato di supervisione è la struttura organizzativa che collega le operations al consiglio. Deloitte ha identificato che il 22% dei board delega la governance dell’IA al comitato di audit e il 25% al comitato rischi. Aziende come Microsoft operano con quattro livelli di governance: comitato del board, consiglio AETHER, consiglio per l’IA responsabile e team operativo.

Metriche e reporting garantiscono che il consiglio riceva informazioni azionabili. Non report tecnici sull’accuratezza dei modelli, ma indicatori di impatto: costi evitati, incidenti rilevati, compliance aggiornata, adozione da parte dei team. Solo il 15% dei board riceve questo tipo di informazioni oggi (McKinsey).

Audit e tracciabilità chiudono il ciclo. Ogni decisione presa da un sistema intelligente deve essere registrata, spiegabile e reversibile. Non è precauzione. In giurisdizioni come l’UE, è un requisito legale. La piattaforma OORT incorpora la tracciabilità by design: ogni azione di un agente è registrata, verificabile e reversibile.

Board senza governance dell’IA

1

Approva budget senza visibilità

2

Rischi normativi invisibili

3

Compliance reattiva (post-incidente)

4

Nessuna metrica di impatto per l’IA

5

Decisioni automatizzate senza audit

Board con governance dell’IA

1

Supervisione strutturata tramite comitato

2

Rischi mappati e classificati

3

Compliance proattiva e preventiva

4

KPI dell’IA nel reporting del consiglio

5

Tracciabilità e reversibilità

Governance by design, non a posteriori

La maggior parte delle aziende cerca di applicare la governance su sistemi di IA che non sono stati progettati per essere governabili. Il risultato è uno strato burocratico che riduce la velocità senza ridurre il rischio.

L’approccio di OORT è diverso. Il layer dati AI-First garantisce che le informazioni vengano acquisite, normalizzate e governate prima di alimentare qualsiasi agente intelligente. Ogni dato ha origine, versione e controllo degli accessi tracciabili.

Gli agenti OORT Flows operano con registrazione completa delle azioni. Ogni decisione automatizzata può essere verificata, spiegata e annullata. Per un consiglio di amministrazione, ciò significa avere la certezza che l’intelligenza artificiale operi entro i limiti definiti dalla governance aziendale.

E il programma OORT Culture prepara leader e team a operare con l’IA in modo responsabile, garantendo che l’adozione non superi la capacità organizzativa di supervisione.

+10.9pp

ROE superiore per i board AI-savvy

MIT CISR, 2025

7%

sanzione massima EU AI Act sul fatturato globale

EU AI Act

48%

delle Fortune 100 divulga la supervisione dell’IA

EY, 2025

76%

prevedono di adottare la ISO 42001

Deloitte, 2025

Il ciclo continuo di governance

La governance dell’IA non è un progetto con inizio e fine. È un ciclo continuo che accompagna l’evoluzione dei sistemi intelligenti all’interno dell’organizzazione. Ogni nuova implementazione, ogni nuovo caso d’uso, ogni cambiamento normativo riattiva il ciclo.

Ciclo di Governance

Diagnosticare

Classificare

Supervisionare

Misurare

Verificare

La governance come vantaggio, non come freno

Il rischio di trascurare la supervisione dell’IA è concreto: sanzioni normative, incidenti di bias, decisioni automatizzate non verificabili e perdita di fiducia istituzionale. Ma il costo opportunità di una governance carente è altrettanto rilevante.

I board che strutturano la governance dell’IA non stanno frenando l’innovazione. Stanno creando le condizioni affinché avvenga in modo sostenibile, scalabile e difendibile davanti a regolatori, investitori e società.

Il MIT ha dimostrato che questi board producono risultati finanziari superiori. EY ha mostrato che il mercato esige trasparenza. La regolamentazione sta arrivando, sia in Europa che in Brasile. Il momento di strutturare la supervisione è adesso, non quando si verificherà il primo incidente.

Il vostro board è pronto per l’IA?

Iniziate con un assessment che mappa rischi, opportunità e livello di maturità della vostra organizzazione. Diagnosi strutturata in giorni, non mesi.

Prenota un Assessment

Domande frequenti

Secondo il MIT CISR, i board digitalmente preparati per l’IA superano i propri pari di 10,9 punti percentuali nel rendimento del capitale proprio. La governance dell’IA coinvolge rischi normativi, etici e operativi che impattano direttamente il valore dell’azienda, rendendola una responsabilità fiduciaria del consiglio. Non è un tema IT. È un tema di strategia aziendale.

Gartner prevede che le aziende senza framework di governance affronteranno tre volte più incidenti normativi. L’EU AI Act prevede sanzioni fino al 7% del fatturato globale. Lo Stanford HAI ha documentato 233 incidenti di IA nel 2024, un aumento del 56% rispetto all’anno precedente. Senza supervisione, le decisioni automatizzate operano senza tracciabilità, generando rischio legale e reputazionale.

Un comitato efficace parte da cinque elementi: inventario completo dei sistemi di IA, classificazione per livello di rischio, struttura di reporting periodico al consiglio, meccanismi di audit per le decisioni automatizzate e policy chiare di etica e uso responsabile. Microsoft, ad esempio, opera con quattro livelli di governance che includono comitato del board, consiglio per l’IA responsabile e team operativo.

L’EU AI Act, in vigore da agosto 2024, richiede alle aziende di mantenere un inventario dei sistemi di IA, classificare i rischi, garantire l’accountability e promuovere l’AI literacy a livello esecutivo. Gli obblighi ad alto rischio entrano in vigore ad agosto 2026. Le sanzioni possono raggiungere 35 milioni di euro o il 7% del fatturato globale annuo.

Il PL 2338/2023, approvato dal Senato a dicembre 2024, crea il Sistema Nazionale di Regolamentazione dell’IA coordinato dall’ANPD. Adotta un approccio basato sul rischio con valutazioni d’impatto algoritmico obbligatorie per i sistemi ad alto rischio. Le aziende che operano in Brasile devono prepararsi a requisiti di trasparenza e tracciabilità simili a quelli europei.

Il MIT CISR ha dimostrato che i board preparati per l’IA generano un ROE superiore di 10,9 punti percentuali rispetto alla media. EY riporta che le divulgazioni sulla supervisione dell’IA nelle Fortune 100 sono triplicate tra il 2024 e il 2025. La governance riduce i costi di compliance, previene le sanzioni normative e accelera l’adozione responsabile. Non è un costo: è un vantaggio competitivo misurabile.