Door AI gegenereerde beelden: welke risico’s en juridische uitdagingen ?

Generatieve artificiële intelligentietools die in staat zijn om beelden en video’s te produceren of een stem te klonen, verspreiden zich snel. Hoewel deze technologieën kansen bieden op het gebied van communicatie, marketing en contentcreatie, brengen ze ook belangrijke risico’s met zich mee. Gegevensbescherming, portretrecht, aansprakelijkheid bij identiteitsfraude of misleidende inhoud: de juridische uitdagingen zijn talrijk.

 

 Generatieve AI en de reproductie van identiteit

Recente vooruitgang in AI maakt het mogelijk om zeer realistische beelden of video’s te creëren die echte personen voorstellen, soms op basis van slechts enkele foto’s die online beschikbaar zijn. Op dezelfde manier kunnen bepaalde technologieën iemands stem imiteren met slechts enkele seconden aan opname.

Deze technische mogelijkheden vergemakkelijken de creatie van “digitale dubbelgangers” die in verschillende contexten kunnen worden gebruikt: promotionele content, virtuele avatars, reclamecampagnes, maar ook deepfakes of fraudepogingen. Het gebruik van iemands beeld of stem zonder diens toestemming kan dan een schending van persoonlijkheidsrechten vormen, en zelfs leiden tot aansprakelijkheid van de organisatie die deze inhoud verspreidt of exploiteert.

Voor bedrijven beperken de risico’s zich niet alleen tot het beeld van derden. Ook leidinggevenden of medewerkers kunnen het doelwit worden van fraudepogingen, bijvoorbeeld via kunstmatig gegenereerde spraak- of videoberichten.

Meervoudige compliance-uitdagingen

Deze praktijken passen binnen een juridisch kader dat nog in ontwikkeling is, maar verschillende bestaande regels zijn nu al van toepassing, naast de risico’s die synthetische content voor een onderneming kan meebrengen op het vlak van burgerlijke aansprakelijkheid of reputatie (bijvoorbeeld wanneer dergelijke content het publiek kan misleiden of valse informatie kan verspreiden).

Ten eerste kan het gebruik van beelden of geluidsopnames de verwerking van persoonsgegevens inhouden wanneer een persoon identificeerbaar is. In dat geval zijn de verplichtingen uit de AVG van toepassing: een rechtsgrond voor de verwerking, informatieverstrekking aan de betrokkenen, doelbinding en passende beveiligingsmaatregelen zijn slechts enkele voorbeelden van de vele regels die moeten worden nageleefd.

Ten tweede geeft het portretrecht individuen de mogelijkheid zich te verzetten tegen ongeoorloofd gebruik van hun identiteit. Het gebruik van iemands beeld of stem in door AI gegenereerde content vereist daarom bijzondere aandacht, met name wat betreft toestemming en proportionaliteit.

Ten derde, vanuit het perspectief van de AI Act van de Europese Unie, die op 2 augustus 2026 in werking treedt, vallen “deepfakes” onder de categorie “laag risico-systemen”. Dit brengt een concrete transparantieverplichting met zich mee (zie art. 50 van de AI Act): gebruikers moeten worden geïnformeerd dat de inhoud door AI is gegenereerd.

Een internationale mobilisatie van gegevensbeschermingsautoriteiten

Geconfronteerd met deze toenemende risico’s nemen gegevensbeschermingsautoriteiten steeds meer initiatieven. In februari 2026 ondertekende de Belgische Gegevensbeschermingsautoriteit (GBA), samen met meer dan 60 autoriteiten wereldwijd, een gezamenlijke verklaring over de risico’s van door AI gegenereerde beelden.

Dit initiatief waarschuwt voor het vermogen van AI-systemen om realistische beelden of video’s te genereren van identificeerbare personen zonder hun medeweten of toestemming. De autoriteiten benadrukken met name de risico’s voor de privacy, reputatie en veiligheid van individuen, evenals de mogelijke impact op het vertrouwen in informatie.

De gezamenlijke verklaring werd gecoördineerd door de International Enforcement Cooperation Working Group (IEWG) van de Global Privacy Assembly (GPA). Ze roept organisaties op om passende governancemaatregelen te nemen en gegevensbescherming vanaf het ontwerp van AI-systemen te integreren.

Aandachtspunten voor bedrijfsjuristen

In deze context spelen juristen een centrale rol bij het reguleren van het gebruik van deze technologieën binnen organisaties. Verschillende aandachtspunten komen naar voren:

  • Het interne gebruik van generatieve AI-tools kaderen, met name binnen marketing-, communicatie- of HR-functies.
  • De rechtmatigheid van gegevensverwerkingen controleren in het kader van het trainen of voeden van AI-systemen, vooral wanneer deze identificeerbare beelden of stemmen bevatten.
  • Interne beleidslijnen opstellen voor synthetische content, inclusief regels rond transparantie en toestemming.
  • Medewerkers bewust maken van de risico’s van identiteitsfraude, met name bij fraude via deepfake-audio of -video.
  • Anticiperen op opkomende regelgeving, in het bijzonder in het kader van de Europese AI-verordening (AI Act).

Naarmate de mogelijkheden van AI zich verder ontwikkelen, wordt het beheer van digitale identiteiten – gezichten, stemmen en virtuele representaties – een strategisch compliancevraagstuk. Voor bedrijven gaat het niet langer alleen om technologische innovatie: het draait ook om het behouden van vertrouwen, reputatie en de fundamentele rechten van betrokken personen.