fbpx

L’IA dans le conseil d’administration : des opportunités croissantes, mais aussi de nouvelles formes de responsabilité des administrateurs

L’IA s’infiltre toujours plus profondément dans le conseil d’administration, allant du soutien administratif à la prise de décision autonome. Les avantages sont nombreux, mais l’usage de l’IA soulève également de nouvelles questions en matière de responsabilité des administrateurs, lesquels demeurent responsables des erreurs, même lorsque celles-ci découlent d’une confiance excessive accordée aux systèmes d’IA.

 

La prise de décision numérique est une réalité dans le conseil d’administration depuis plusieurs décennies, mais la percée récente de l’intelligence artificielle (IA) fait passer cette évolution à un niveau supérieur. Aujourd’hui, la technologie est utilisée comme conseiller stratégique pour les décisions d’investissement (telles que les analyses de fusions-acquisitions), comme système d’audit des comptes annuels, comme outil de suivi des performances des entreprises, et même sous la forme de « robo-administrateurs », à l’image du célèbre exemple VITAL. La question n’est plus de savoir si l’IA trouvera sa place dans la gouvernance d’entreprise, mais jusqu’où ira son intégration.

Trois niveaux d’utilisation de l’IA

L’IA peut jouer plusieurs rôles au sein d’un conseil d’administration :

 Assistance intelligence : les systèmes prennent surtout en charge des tâches pratiques ou administratives. Cela inclut la gestion intelligente de documents, les programmes de comptabilité et de reporting, ainsi que la reconnaissance vocale et la prédiction de texte.

Augmented intelligence : l’IA renforce l’évaluation des administrateurs grâce à ses analyses. Cela comprend des tâches d’évaluation telles que la classification, le clustering, la simulation, les chatbots, les robo-conseils, etc.

Autonomous intelligence : la forme la plus poussée, où le système d’IA reçoit de véritables pouvoirs décisionnels et fonctionne en grande partie de manière autonome. Bien que cela reste exceptionnel aujourd’hui, la technologie se rapproche d’un niveau opérationnel où l’intervention humaine devient limitée.

Les avantages : rapidité, rationalité et indépendance

L’utilisation de l’IA peut rationaliser de manière significative la prise de décision. Elle permet un traitement plus rapide de l’information, réduit le risque de pensée de groupe et limite l’influence de relations internes ou de pressions informelles. L’indépendance de l’organe de gestion peut également s’en trouver renforcée : un système d’IA n’a pas de conflit d’intérêts. Il est donc logique qu’un administrateur soit enclin à y recourir.

La responsabilité des administrateurs à l’ère de l’IA

Un administrateur doit toutefois réfléchir aux implications de l’utilisation de l’IA sur ses missions et sur sa responsabilité. Conformément aux articles 2:56 et 2:51 du Code des sociétés et des associations (CSA), les administrateurs – qu’il s’agisse des membres de l’organe d’administration, des administrateurs délégués ou de toute personne disposant d’un pouvoir de gestion réel, même de fait — sont responsables des fautes commises dans l’exercice de leur mandat.

La responsabilité prévue par ces dispositions couvre plusieurs types de fautes. Un administrateur peut être tenu responsable de toute violation d’une disposition du CSA. Il peut également être responsable de toute faute résultant du comportement de l’administrateur, lequel ne correspondrait pas à celui d’un administrateur normalement prudent et diligent.

Des exemples concrets illustrent où les choses peuvent mal tourner. Un dirigeant qui se fie uniquement à un outil d’IA pour vérifier qu’un sous-traitant dispose des autorisations appropriées, puis conclut un contrat sans vérification humaine complémentaire, peut être tenu responsable si les informations s’avèrent erronées. Il en va de même si des données sensibles de l’entreprise sont introduites sans protection dans un outil d’IA générique. Dans ces deux cas, un administrateur prudent aurait pris des mesures de précaution — et c’est ce standard qui reste la référence.

Chaque administrateur doit donc veiller à ne pas accorder une confiance aveugle à l’IA au risque de voir sa responsabilité engagée. La jurisprudence actuelle est stricte envers les administrateurs qui délèguent leurs tâches à des tiers ; avec l’IA, la logique sera identique. Il faut s’attendre à ce que de nombreuses décisions judiciaires traitent cette question.

Un nouveau devoir : formation et sensibilisation

L’essor de l’IA crée non seulement des obligations technologiques, mais également des obligations organisationnelles. Une question centrale se pose : quelle formation pour les employés à l’usage des outils d’IA ?

Avec l’entrée en vigueur du Règlement européen sur l’IA, les organisations ont l’obligation de garantir un niveau suffisant d’« IA – Alphabétisation » parmi leur personnel. Concrètement, les administrateurs devront veiller à une formation adéquate et suffisante de leurs employés.

Cela s’inscrit aussi dans le devoir de diligence des entreprises : lorsque des systèmes d’IA sont introduits, le personnel doit être suffisamment formé pour les utiliser de manière sûre, sécurisée et conforme à la loi. Cela inclut la formation à la sécurité des données, aux méthodes d’encodage correctes, aux risques d’hallucinations, ainsi qu’à la nécessité d’un contrôle humain pour les décisions critiques. Une entreprise qui ne prévoit pas de formation s’expose à un risque majeur de non-conformité— avec une responsabilité potentielle tant pour l’organisation que pour ses administrateurs.

Conclusion

L’IA peut enrichir et renforcer le conseil d’administration, mais elle ne change rien au fait que la responsabilité finale reste celle des administrateurs humains. La technologie peut assister, mais ne remplacera jamais la diligence et la prudence d’une bonne gouvernance.