OORT Labs
Blog
Insights

Le rôle du conseil d’administration dans la gouvernance de l’intelligence artificielle

Pourquoi la supervision de l’IA n’est plus optionnelle pour les conseils d’administration. Et ce que les boards les mieux préparés font différemment.

Claudio Reina··12 min de lecture

La gouvernance de l’intelligence artificielle n’est pas un sujet exclusivement technique. C’est une question de stratégie d’entreprise qui exige l’attention directe du conseil d’administration.

Selon une recherche du MIT CISR portant sur 2 800 entreprises, seuls 26 % des boards sont numériquement préparés à superviser efficacement les initiatives d’IA. La différence entre ces conseils et les autres n’est pas subtile : les boards AI-savvy délivrent un rendement des capitaux propres supérieur de 10,9 points de pourcentage à la moyenne.

Le Stanford HAI a documenté 233 incidents liés à l’IA en 2024, soit une augmentation de 56,4 % par rapport à l’année précédente. Ce sont des cas de biais algorithmique, de décisions automatisées sans traçabilité et de violations de la vie privée générant un impact réglementaire, financier et réputationnel.

La question n’est pas de savoir si le conseil doit s’impliquer dans l’IA. C’est de savoir s’il est préparé à le faire avec la profondeur qu’exige le moment.

26%

des boards sont numériquement préparés pour l’IA

MIT CISR, 2025

233

incidents d’IA documentés en 2024

Stanford HAI, 2025

3x

plus d’incidents réglementaires sans gouvernance

Gartner, 2026

Pourquoi l’IA est un sujet de conseil, pas de DSI

La recherche du NACD révèle un paradoxe : 95 % des organisations investissent dans l’intelligence artificielle, mais seuls 34 % intègrent la gouvernance de l’IA dans leurs structures de supervision. Moins de 25 % disposent de politiques d’IA approuvées par le board. Seuls 15 % des conseils reçoivent des indicateurs réguliers sur la performance des systèmes intelligents.

Cela signifie que la plupart des conseils approuvent des budgets d’IA sans visibilité sur ce qui est construit, quelles décisions sont automatisées et quel est le niveau de risque opérationnel et réglementaire impliqué.

L’Assessment IA d’OORT existe précisément pour combler cette lacune : il cartographie les systèmes intelligents en fonctionnement, classifie les risques et fournit au conseil une vue d’ensemble claire avant le déploiement.

McKinsey confirme : seuls 39 % des entreprises Fortune 100 divulguent une quelconque forme de supervision de l’IA par le board. Dans seulement 17 % des cas, la gouvernance de l’intelligence artificielle est une responsabilité explicite du conseil d’administration.

Le paysage réglementaire se resserre

Le EU AI Act, en vigueur depuis août 2024, est le cadre réglementaire le plus complet au monde pour l’intelligence artificielle. Les obligations de conformité pour les systèmes à haut risque entrent en vigueur en août 2026. Les amendes peuvent atteindre 35 millions d’euros ou 7 % du chiffre d’affaires mondial annuel, le montant le plus élevé étant retenu.

Au Brésil, le PL 2338/2023 a été approuvé par le Sénat en décembre 2024 et est en cours d’examen à la Chambre des députés. Le projet crée le Système national de régulation de l’IA, coordonné par l’ANPD, et exige des évaluations d’impact algorithmique pour les systèmes à haut risque. Les entreprises opérant sur le marché brésilien doivent se préparer à des exigences de transparence et de traçabilité suivant la même logique européenne.

Le Stanford HAI a enregistré 59 nouvelles réglementations en matière d’IA introduites en 2024, soit le double de l’année précédente. Gartner projette que d’ici 2030, la régulation de l’IA s’étendra à 75 % des économies mondiales, créant un marché de la conformité qui dépassera 1 milliard de dollars.

Les conseils qui n’ont pas de visibilité sur les systèmes intelligents opérant dans leur entreprise assument, en pratique, un passif réglementaire invisible.

«Les conseils qui traitent l’intelligence artificielle comme un sujet stratégique, et pas seulement opérationnel, positionnent leurs entreprises pour mener la prochaine décennie de transformation.»

Les cinq piliers de la gouvernance de l’IA au sein du board

Les boards qui supervisent efficacement l’IA partagent une structure cohérente. Il ne s’agit pas de créer une couche bureaucratique au-dessus de la technologie, mais de garantir que le conseil dispose des instruments adéquats pour exercer sa fonction fiduciaire.

01

Inventaire IA

Cartographiez tous les systèmes

02

Classification des risques

Impact élevé, moyen, faible

03

Comité de supervision

Structure dédiée au sein du board

04

Indicateurs et reporting

KPIs clairs pour le conseil

05

Audit continu

Décisions traçables et réversibles

Inventaire IA est le point de départ. De nombreux conseils ignorent combien de systèmes intelligents fonctionnent au sein de l’organisation. Sans cartographie complète, impossible d’évaluer l’exposition aux risques. La première étape est de savoir ce qui existe.

Classification des risques détermine quels systèmes nécessitent une supervision plus rigoureuse. Les systèmes qui prennent des décisions concernant des personnes (recrutement, crédit, santé) exigent des contrôles différents de ceux qui optimisent la logistique ou recommandent du contenu. Le EU AI Act définit quatre catégories : risque inacceptable, élevé, limité et minimal.

Comité de supervision est la structure organisationnelle qui relie les opérations au conseil. Deloitte a identifié que 22 % des boards délèguent la gouvernance de l’IA au comité d’audit et 25 % au comité des risques. Des entreprises comme Microsoft fonctionnent avec quatre niveaux de gouvernance : comité du board, conseil AETHER, conseil d’IA responsable et équipe opérationnelle.

Indicateurs et reporting garantissent que le conseil reçoit des informations exploitables. Pas des rapports techniques sur la précision des modèles, mais des indicateurs d’impact : coûts évités, incidents détectés, conformité à jour, adoption par les équipes. Seuls 15 % des boards reçoivent ce type d’information aujourd’hui (McKinsey).

Audit et traçabilité ferment le cycle. Chaque décision prise par un système intelligent doit être enregistrée, explicable et réversible. Ce n’est pas de la précaution. Dans des juridictions comme l’UE, c’est une obligation légale. La plateforme OORT intègre la traçabilité par conception : chaque action d’un agent est enregistrée, auditable et réversible.

Board sans gouvernance IA

1

Approuve des budgets sans visibilité

2

Risques réglementaires invisibles

3

Conformité réactive (post-incident)

4

Aucun indicateur d’impact pour l’IA

5

Décisions automatisées sans audit

Board avec gouvernance IA

1

Supervision structurée par comité

2

Risques cartographiés et classifiés

3

Conformité proactive et préventive

4

KPIs IA dans le reporting du conseil

5

Traçabilité et réversibilité

La gouvernance par conception, pas par rustine

La plupart des entreprises tentent d’appliquer la gouvernance sur des systèmes d’IA qui n’ont pas été conçus pour être gouvernables. Le résultat est une couche bureaucratique qui réduit la vitesse sans réduire le risque.

L’approche d’OORT est différente. La couche de données AI-First garantit que l’information est ingérée, normalisée et gouvernée avant d’alimenter un quelconque agent intelligent. Chaque donnée dispose d’une origine, d’une version et d’un contrôle d’accès traçables.

Les agents OORT Flows opèrent avec un enregistrement complet des actions. Chaque décision automatisée peut être auditée, expliquée et annulée. Pour un conseil d’administration, cela signifie avoir la certitude que l’intelligence artificielle opère dans les limites définies par la gouvernance d’entreprise.

Et le programme OORT Culture prépare les dirigeants et les équipes à utiliser l’IA de manière responsable, en garantissant que l’adoption ne dépasse pas la capacité organisationnelle de supervision.

+10.9pp

ROE supérieur pour les boards AI-savvy

MIT CISR, 2025

7%

amende maximale EU AI Act sur le CA mondial

EU AI Act

48%

des Fortune 100 divulguent la supervision de l’IA

EY, 2025

76%

prévoient d’adopter l’ISO 42001

Deloitte, 2025

Le cycle continu de gouvernance

La gouvernance de l’IA n’est pas un projet avec un début et une fin. C’est un cycle continu qui accompagne l’évolution des systèmes intelligents au sein de l’organisation. Chaque nouvelle implémentation, chaque nouveau cas d’usage, chaque évolution réglementaire réactive le cycle.

Cycle de Gouvernance

Diagnostiquer

Classifier

Superviser

Mesurer

Auditer

La gouvernance comme avantage, pas comme frein

Le risque de négliger la supervision de l’IA est concret : amendes réglementaires, incidents de biais, décisions automatisées non auditables et perte de confiance institutionnelle. Mais le coût d’opportunité d’une mauvaise gouvernance est tout aussi significatif.

Les boards qui structurent la gouvernance de l’IA ne freinent pas l’innovation. Ils créent les conditions pour qu’elle se produise de manière durable, évolutive et défendable devant les régulateurs, les investisseurs et la société.

Le MIT a démontré que ces boards délivrent des résultats financiers supérieurs. EY a montré que le marché exige la transparence. La régulation arrive, en Europe comme au Brésil. Le moment de structurer la supervision est maintenant, pas quand le premier incident surviendra.

Votre board est-il préparé pour l’IA ?

Commencez par un assessment qui cartographie les risques, les opportunités et le niveau de maturité de votre organisation. Diagnostic structuré en jours, pas en mois.

Planifier un Assessment

Questions fréquentes

Selon le MIT CISR, les boards numériquement préparés pour l’IA surpassent leurs pairs de 10,9 points de pourcentage en rendement des capitaux propres. La gouvernance de l’IA implique des risques réglementaires, éthiques et opérationnels qui impactent directement la valeur de l’entreprise, ce qui en fait une responsabilité fiduciaire du conseil. Ce n’est pas un sujet informatique. C’est un sujet de stratégie d’entreprise.

Gartner projette que les entreprises sans cadre de gouvernance feront face à trois fois plus d’incidents réglementaires. Le EU AI Act prévoit des amendes allant jusqu’à 7 % du CA mondial. Le Stanford HAI a documenté 233 incidents d’IA en 2024, une augmentation de 56 % par rapport à l’année précédente. Sans supervision, les décisions automatisées opèrent sans traçabilité, créant un risque juridique et réputationnel.

Un comité efficace repose sur cinq éléments : inventaire complet des systèmes d’IA, classification par niveau de risque, structure de reporting périodique au conseil, mécanismes d’audit des décisions automatisées et politiques claires d’éthique et d’utilisation responsable. Microsoft, par exemple, fonctionne avec quatre niveaux de gouvernance incluant un comité du board, un conseil d’IA responsable et une équipe opérationnelle.

Le EU AI Act, en vigueur depuis août 2024, exige que les entreprises maintiennent un inventaire des systèmes d’IA, classifient les risques, garantissent la responsabilité et promeuvent la littératie IA au niveau exécutif. Les obligations à haut risque entrent en vigueur en août 2026. Les amendes peuvent atteindre 35 millions d’euros ou 7 % du CA mondial annuel.

Le PL 2338/2023, approuvé par le Sénat en décembre 2024, crée le Système national de régulation de l’IA coordonné par l’ANPD. Il adopte une approche fondée sur le risque avec des évaluations d’impact algorithmique obligatoires pour les systèmes à haut risque. Les entreprises opérant au Brésil doivent se préparer à des exigences de transparence et de traçabilité similaires aux exigences européennes.

Le MIT CISR a démontré que les boards préparés pour l’IA délivrent un ROE supérieur de 10,9 points de pourcentage à la moyenne. EY rapporte que les divulgations de supervision de l’IA dans le Fortune 100 ont triplé entre 2024 et 2025. La gouvernance réduit les coûts de conformité, prévient les amendes réglementaires et accélère l’adoption responsable. Ce n’est pas un coût : c’est un avantage concurrentiel mesurable.