Le rôle du conseil d’administration dans la gouvernance de l’intelligence artificielle
Pourquoi la supervision de l’IA n’est plus optionnelle pour les conseils d’administration. Et ce que les boards les mieux préparés font différemment.

Claudio Reina
Co-fondateur, Lattine Group
La gouvernance de l’intelligence artificielle n’est pas un sujet exclusivement technique. C’est une question de stratégie d’entreprise qui exige l’attention directe du conseil d’administration.
Selon une recherche du MIT CISR portant sur 2 800 entreprises, seuls 26 % des boards sont numériquement préparés à superviser efficacement les initiatives d’IA. La différence entre ces conseils et les autres n’est pas subtile : les boards AI-savvy délivrent un rendement des capitaux propres supérieur de 10,9 points de pourcentage à la moyenne.
Le Stanford HAI a documenté 233 incidents liés à l’IA en 2024, soit une augmentation de 56,4 % par rapport à l’année précédente. Ce sont des cas de biais algorithmique, de décisions automatisées sans traçabilité et de violations de la vie privée générant un impact réglementaire, financier et réputationnel.
La question n’est pas de savoir si le conseil doit s’impliquer dans l’IA. C’est de savoir s’il est préparé à le faire avec la profondeur qu’exige le moment.
26%
des boards sont numériquement préparés pour l’IA
MIT CISR, 2025
233
incidents d’IA documentés en 2024
Stanford HAI, 2025
3x
plus d’incidents réglementaires sans gouvernance
Gartner, 2026
Pourquoi l’IA est un sujet de conseil, pas de DSI
La recherche du NACD révèle un paradoxe : 95 % des organisations investissent dans l’intelligence artificielle, mais seuls 34 % intègrent la gouvernance de l’IA dans leurs structures de supervision. Moins de 25 % disposent de politiques d’IA approuvées par le board. Seuls 15 % des conseils reçoivent des indicateurs réguliers sur la performance des systèmes intelligents.
Cela signifie que la plupart des conseils approuvent des budgets d’IA sans visibilité sur ce qui est construit, quelles décisions sont automatisées et quel est le niveau de risque opérationnel et réglementaire impliqué.
L’Assessment IA d’OORT existe précisément pour combler cette lacune : il cartographie les systèmes intelligents en fonctionnement, classifie les risques et fournit au conseil une vue d’ensemble claire avant le déploiement.
McKinsey confirme : seuls 39 % des entreprises Fortune 100 divulguent une quelconque forme de supervision de l’IA par le board. Dans seulement 17 % des cas, la gouvernance de l’intelligence artificielle est une responsabilité explicite du conseil d’administration.
Le paysage réglementaire se resserre
Le EU AI Act, en vigueur depuis août 2024, est le cadre réglementaire le plus complet au monde pour l’intelligence artificielle. Les obligations de conformité pour les systèmes à haut risque entrent en vigueur en août 2026. Les amendes peuvent atteindre 35 millions d’euros ou 7 % du chiffre d’affaires mondial annuel, le montant le plus élevé étant retenu.
Au Brésil, le PL 2338/2023 a été approuvé par le Sénat en décembre 2024 et est en cours d’examen à la Chambre des députés. Le projet crée le Système national de régulation de l’IA, coordonné par l’ANPD, et exige des évaluations d’impact algorithmique pour les systèmes à haut risque. Les entreprises opérant sur le marché brésilien doivent se préparer à des exigences de transparence et de traçabilité suivant la même logique européenne.
Le Stanford HAI a enregistré 59 nouvelles réglementations en matière d’IA introduites en 2024, soit le double de l’année précédente. Gartner projette que d’ici 2030, la régulation de l’IA s’étendra à 75 % des économies mondiales, créant un marché de la conformité qui dépassera 1 milliard de dollars.
Les conseils qui n’ont pas de visibilité sur les systèmes intelligents opérant dans leur entreprise assument, en pratique, un passif réglementaire invisible.
«Les conseils qui traitent l’intelligence artificielle comme un sujet stratégique, et pas seulement opérationnel, positionnent leurs entreprises pour mener la prochaine décennie de transformation.»
Les cinq piliers de la gouvernance de l’IA au sein du board
Les boards qui supervisent efficacement l’IA partagent une structure cohérente. Il ne s’agit pas de créer une couche bureaucratique au-dessus de la technologie, mais de garantir que le conseil dispose des instruments adéquats pour exercer sa fonction fiduciaire.
01
Inventaire IA
Cartographiez tous les systèmes
02
Classification des risques
Impact élevé, moyen, faible
03
Comité de supervision
Structure dédiée au sein du board
04
Indicateurs et reporting
KPIs clairs pour le conseil
05
Audit continu
Décisions traçables et réversibles
Inventaire IA est le point de départ. De nombreux conseils ignorent combien de systèmes intelligents fonctionnent au sein de l’organisation. Sans cartographie complète, impossible d’évaluer l’exposition aux risques. La première étape est de savoir ce qui existe.
Classification des risques détermine quels systèmes nécessitent une supervision plus rigoureuse. Les systèmes qui prennent des décisions concernant des personnes (recrutement, crédit, santé) exigent des contrôles différents de ceux qui optimisent la logistique ou recommandent du contenu. Le EU AI Act définit quatre catégories : risque inacceptable, élevé, limité et minimal.
Comité de supervision est la structure organisationnelle qui relie les opérations au conseil. Deloitte a identifié que 22 % des boards délèguent la gouvernance de l’IA au comité d’audit et 25 % au comité des risques. Des entreprises comme Microsoft fonctionnent avec quatre niveaux de gouvernance : comité du board, conseil AETHER, conseil d’IA responsable et équipe opérationnelle.
Indicateurs et reporting garantissent que le conseil reçoit des informations exploitables. Pas des rapports techniques sur la précision des modèles, mais des indicateurs d’impact : coûts évités, incidents détectés, conformité à jour, adoption par les équipes. Seuls 15 % des boards reçoivent ce type d’information aujourd’hui (McKinsey).
Audit et traçabilité ferment le cycle. Chaque décision prise par un système intelligent doit être enregistrée, explicable et réversible. Ce n’est pas de la précaution. Dans des juridictions comme l’UE, c’est une obligation légale. La plateforme OORT intègre la traçabilité par conception : chaque action d’un agent est enregistrée, auditable et réversible.
Board sans gouvernance IA
Approuve des budgets sans visibilité
Risques réglementaires invisibles
Conformité réactive (post-incident)
Aucun indicateur d’impact pour l’IA
Décisions automatisées sans audit
Board avec gouvernance IA
Supervision structurée par comité
Risques cartographiés et classifiés
Conformité proactive et préventive
KPIs IA dans le reporting du conseil
Traçabilité et réversibilité
La gouvernance par conception, pas par rustine
La plupart des entreprises tentent d’appliquer la gouvernance sur des systèmes d’IA qui n’ont pas été conçus pour être gouvernables. Le résultat est une couche bureaucratique qui réduit la vitesse sans réduire le risque.
L’approche d’OORT est différente. La couche de données AI-First garantit que l’information est ingérée, normalisée et gouvernée avant d’alimenter un quelconque agent intelligent. Chaque donnée dispose d’une origine, d’une version et d’un contrôle d’accès traçables.
Les agents OORT Flows opèrent avec un enregistrement complet des actions. Chaque décision automatisée peut être auditée, expliquée et annulée. Pour un conseil d’administration, cela signifie avoir la certitude que l’intelligence artificielle opère dans les limites définies par la gouvernance d’entreprise.
Et le programme OORT Culture prépare les dirigeants et les équipes à utiliser l’IA de manière responsable, en garantissant que l’adoption ne dépasse pas la capacité organisationnelle de supervision.
+10.9pp
ROE supérieur pour les boards AI-savvy
MIT CISR, 2025
7%
amende maximale EU AI Act sur le CA mondial
EU AI Act
48%
des Fortune 100 divulguent la supervision de l’IA
EY, 2025
76%
prévoient d’adopter l’ISO 42001
Deloitte, 2025
Le cycle continu de gouvernance
La gouvernance de l’IA n’est pas un projet avec un début et une fin. C’est un cycle continu qui accompagne l’évolution des systèmes intelligents au sein de l’organisation. Chaque nouvelle implémentation, chaque nouveau cas d’usage, chaque évolution réglementaire réactive le cycle.
Cycle de Gouvernance
Diagnostiquer
Classifier
Superviser
Mesurer
Auditer
Gouvernance
Diagnostiquer
Classifier
Superviser
Mesurer
Auditer
La gouvernance comme avantage, pas comme frein
Le risque de négliger la supervision de l’IA est concret : amendes réglementaires, incidents de biais, décisions automatisées non auditables et perte de confiance institutionnelle. Mais le coût d’opportunité d’une mauvaise gouvernance est tout aussi significatif.
Les boards qui structurent la gouvernance de l’IA ne freinent pas l’innovation. Ils créent les conditions pour qu’elle se produise de manière durable, évolutive et défendable devant les régulateurs, les investisseurs et la société.
Le MIT a démontré que ces boards délivrent des résultats financiers supérieurs. EY a montré que le marché exige la transparence. La régulation arrive, en Europe comme au Brésil. Le moment de structurer la supervision est maintenant, pas quand le premier incident surviendra.
Lire aussi
Votre board est-il préparé pour l’IA ?
Commencez par un assessment qui cartographie les risques, les opportunités et le niveau de maturité de votre organisation. Diagnostic structuré en jours, pas en mois.
Planifier un AssessmentSources
- MIT CISR — AI-Savvy Boards Drive Superior Performance (2025)
- Deloitte — Governance of AI, 2nd Edition (2025)
- Stanford HAI — AI Index Report 2025
- Gartner — AI Regulatory Violations Predictions
- McKinsey — The AI Reckoning: How Boards Can Evolve
- EY — Cyber and AI Oversight Disclosures (2025)
- NACD — 2025 Board Practices Oversight Survey
- EU AI Act — European Commission
- Brazil AI Act — PL 2338/2023
- ISO/IEC 42001 — AI Management System Standard
Questions fréquentes
Selon le MIT CISR, les boards numériquement préparés pour l’IA surpassent leurs pairs de 10,9 points de pourcentage en rendement des capitaux propres. La gouvernance de l’IA implique des risques réglementaires, éthiques et opérationnels qui impactent directement la valeur de l’entreprise, ce qui en fait une responsabilité fiduciaire du conseil. Ce n’est pas un sujet informatique. C’est un sujet de stratégie d’entreprise.
Gartner projette que les entreprises sans cadre de gouvernance feront face à trois fois plus d’incidents réglementaires. Le EU AI Act prévoit des amendes allant jusqu’à 7 % du CA mondial. Le Stanford HAI a documenté 233 incidents d’IA en 2024, une augmentation de 56 % par rapport à l’année précédente. Sans supervision, les décisions automatisées opèrent sans traçabilité, créant un risque juridique et réputationnel.
Un comité efficace repose sur cinq éléments : inventaire complet des systèmes d’IA, classification par niveau de risque, structure de reporting périodique au conseil, mécanismes d’audit des décisions automatisées et politiques claires d’éthique et d’utilisation responsable. Microsoft, par exemple, fonctionne avec quatre niveaux de gouvernance incluant un comité du board, un conseil d’IA responsable et une équipe opérationnelle.
Le EU AI Act, en vigueur depuis août 2024, exige que les entreprises maintiennent un inventaire des systèmes d’IA, classifient les risques, garantissent la responsabilité et promeuvent la littératie IA au niveau exécutif. Les obligations à haut risque entrent en vigueur en août 2026. Les amendes peuvent atteindre 35 millions d’euros ou 7 % du CA mondial annuel.
Le PL 2338/2023, approuvé par le Sénat en décembre 2024, crée le Système national de régulation de l’IA coordonné par l’ANPD. Il adopte une approche fondée sur le risque avec des évaluations d’impact algorithmique obligatoires pour les systèmes à haut risque. Les entreprises opérant au Brésil doivent se préparer à des exigences de transparence et de traçabilité similaires aux exigences européennes.
Le MIT CISR a démontré que les boards préparés pour l’IA délivrent un ROE supérieur de 10,9 points de pourcentage à la moyenne. EY rapporte que les divulgations de supervision de l’IA dans le Fortune 100 ont triplé entre 2024 et 2025. La gouvernance réduit les coûts de conformité, prévient les amendes réglementaires et accélère l’adoption responsable. Ce n’est pas un coût : c’est un avantage concurrentiel mesurable.