AI dringt steeds dieper door in de bestuurskamer, van administratieve ondersteuning tot autonome besluitvorming. De voordelen zijn legio, maar het gebruik van AI roept ook nieuwe vragen op over bestuurdersaansprakelijkheid, waarbij bestuurders aansprakelijk blijven voor fouten, ook wanneer die voortkomen uit veel vertrouwen op AI-systemen.
Digitale besluitvorming is al decennia een realiteit in de bestuurskamer, maar de recente doorbraak van artificiële intelligentie (AI) tilt deze evolutie naar een nieuw niveau. De technologie wordt vandaag ingezet als strategisch adviseur bij investeringsbeslissingen (zoals M&A-analyses), als auditsysteem voor jaarrekeningen, als monitoringsinstrument voor de prestaties van ondernemingen en zelfs in de vorm van zogenaamde robo-bestuurders, zoals het bekende voorbeeld VITAL. De vraag is niet langer óf AI een plaats krijgt in corporate governance, maar hoe ver die integratie reikt.
AI kan verschillende rollen vervullen in een bestuur. Bij assistance intelligence nemen systemen vooral praktische of administratieve taken over In deze categorie vallen intelligent documentbeheer, boekhoudings- en rapporteringsprogramma’s, maar ook spraakherkenning en voorspellende tekst.
In een tweede categorie, augmented intelligence, versterken bestuurders hun eigen beoordeling door AI-analyses. Hieronder vallen de beoordelingstaken, o.a. classificatie, clustering, simulatie, chatbots robo-adviezen etc.
De meest vergaande vorm is autonomous intelligence, waarbij het AI-systeem zelf beslissingsrechten krijgt en grotendeels autonoom functioneert. Hoewel dit voorlopig uitzonderlijk is, komt de technologie steeds dichter bij een operationeel niveau waarop menselijke tussenkomst beperkt wordt.
Het gebruik van AI kan de besluitvorming significant rationaliseren. Informatie wordt sneller verwerkt, het risico op groepsdenken wordt verkleind en bestuurders worden minder beïnvloed door interne “vriendschappen” of informele druk. Ook de onafhankelijkheid van het orgaan kan worden versterkt: een AI-systeem kent geen belangenconflict. Het is dus niet meer dan logisch dat een bestuurder geneigd zal zijn om AI te gebruiken.
Een bestuurder doet er evenwel goed aan om steeds stil te staan bij de implicaties van het gebruik van AI op zijn bestuurstaken, en zijn bestuurdersaansprakelijkheid. Overeenkomstig de artikelen 2:56 en 2:51 van het Wetboek van vennootschappen en verenigingen (‘WVV’), zijn bestuursleden, i.e. leden van het bestuursorgaan of dagelijkse bestuurders, evenals alle andere personen die ten aanzien van de rechtspersoon werkelijke, zelfs feitelijke bestuursbevoegdheid hebben of hebben gehad, aansprakelijk voor fouten begaan in uitoefening van hun opdracht.
De aansprakelijkheid die vervat zit in de betrokken bepalingen, geldt voor een verschillend aantal fouten. Ten eerste kan een bestuurder aansprakelijk worden gesteld voor elke miskenning van een bepaling van het Wetboek van Vennootschappen en Verenigingen. Daarnaast kan een bestuurder ook aansprakelijk worden gesteld voor elke fout die kennelijk de marge heeft overschrijden vergeleken met een normale, zorgvuldige bestuurder.
Voorbeelden uit de praktijk tonen waar het mis kan gaan. Een bedrijfsleider die enkel vertrouwt op een AI-tool om te controleren of een onderaannemer over de juiste vergunningen beschikt, en vervolgens een contract sluit zonder bijkomende menselijke verificatie, kan aansprakelijk worden gesteld wanneer de informatie fout blijkt. Hetzelfde geldt wanneer vertrouwelijke bedrijfsgegevens zonder beveiliging in een generieke AI-tool worden ingevoerd. In beide gevallen zou een voorzichtig bestuurder voorzorgsmaatregelen nemen—en die norm blijft het beoordelingskader.
Een bestuurder waakt er dus maar beter over dat een blind vertrouwen op AI wel degelijk kan leiden tot bestuurdersaansprakelijkheid. Op heden is de rechtspraak streng op bestuurders die hun taken delegeren aan derde partijen, met de komst van AI gaat dat niet anders zijn. Al verwachten we nog veel rechtspraak die zal volgen in de sector.
De opkomst van AI creëert niet alleen technologische, maar ook organisatorische verplichtingen. Een centrale vraag is dan ook: hoe zit het met de opleiding van werknemers in het gebruik van AI-tools?
Met de inwerkingtreding van de EU AI Verordening, hebben organisaties de verplichting om voor voldoende AI-geletterdheid van hun personeel te zorgen. Concreet zullen bestuurders moeten instaan voor gedegen en voldoende opleiding van hun personeel.
Dat kan ook kaderen in een zorgplicht voor deze ondernemingen: wanneer AI-systemen worden ingevoerd, moet het personeel voldoende worden opgeleid om ze veilig, beveiligd en binnen de wettelijke grenzen te gebruiken. Dat omvat training over dataveiligheid, correcte input-methodes, risico’s van hallucinaties, en de noodzaak van menselijke controle bij kritische beslissingen. Een onderneming die geen opleiding voorziet, neemt een aanzienlijk compliance-risico—met mogelijke aansprakelijkheid voor de organisatie én haar bestuurders.
AI kan de bestuurskamer verrijken en versterken, maar verandert niets aan het feit dat de eindverantwoordelijkheid bij de menselijke bestuurders blijft. Technologie kan ondersteunen, maar nooit de zorgvuldigheid van goed bestuur vervangen.