Les outils d’intelligence artificielle générative capables de produire des images, des vidéos ou de cloner une voix se démocratisent rapidement. Si ces technologies offrent des opportunités en matière de communication, de marketing ou de création de contenu, elles soulèvent aussi des risques importants. Protection des données, droit à l’image, responsabilité en cas d’usurpation d’identité ou de contenus trompeurs : les enjeux juridiques sont nombreux.
Les progrès récents de l’IA permettent de créer des images ou des vidéos très réalistes représentant des personnes réelles, parfois à partir de quelques photos disponibles en ligne. De même, certaines technologies sont capables d’imiter la voix d’un individu avec seulement quelques secondes d’enregistrement.
Ces possibilités techniques facilitent la création de « doubles numériques » susceptibles d’être utilisés dans différents contextes : contenus promotionnels, avatars virtuels, campagnes publicitaires, mais aussi deepfakes ou tentatives d’escroquerie. L’utilisation de l’image ou de la voix d’une personne sans son consentement peut alors constituer une atteinte aux droits de la personnalité, voire engager la responsabilité de l’organisation qui diffuse ou exploite ces contenus.
Pour les entreprises, les risques ne concernent pas uniquement l’image de tiers. Les dirigeants ou collaborateurs peuvent eux aussi être visés par des tentatives d’escroquerie, par exemple via des messages vocaux ou vidéos générés artificiellement.
Ces pratiques s’inscrivent dans un cadre juridique encore en évolution, mais plusieurs normes existantes s’appliquent déjà, outre les risques que les contenus synthétiques peuvent présenter pour une entreprise en matière de responsabilité civile ou de réputation (par exemple lorsque ces contenus sont susceptibles d’induire le public en erreur ou de diffuser de fausses informations).
En premier lieu, l’utilisation d’images ou d’enregistrements vocaux peut impliquer le traitement de données à caractère personnel lorsqu’une personne est identifiable. Dans ce cas, les obligations issues du RGPD s’appliquent : base de licéité du traitement, information des personnes concernées, limitation des finalités ou encore mesures de sécurité adaptées ne sont que des exemples des très nombreuses règles à respecter.
En deuxième lieu, le droit à l’image permet aux individus de s’opposer à l’utilisation non autorisée de leur identité. L’utilisation de l’image ou de la voix d’un individu dans un contenu généré par IA nécessite donc une attention particulière, notamment en matière de consentement et de proportionnalité.
En troisième lieu, sous l’angle de l’AI Act de l’Union européenne qui entrera en vigueur le 2 août 2026, les « deep fakes » relèvent de la catégorie des « systèmes à faible risque », ce qui implique une obligation concrète de transparence (cf. art. 50 de l’AI Act) : les utilisateurs doivent être informés que le contenu est généré par l’IA.
Face à ces risques croissants, les autorités de protection des données multiplient les initiatives. En février 2026, l’Autorité de protection des données belge (APD) a signé, avec plus de 60 autorités dans le monde, une déclaration commune consacrée aux risques liés aux images générées par l’IA.
Cette initiative alerte sur la capacité des systèmes d’IA à générer des images ou vidéos réalistes représentant des personnes identifiables sans leur connaissance ni leur consentement. Les autorités soulignent notamment les risques pour la vie privée, la réputation et la sécurité des individus, ainsi que l’impact potentiel sur la confiance dans l’information.
La déclaration commune a été coordonnée par le International Enforcement Cooperation Working Group (IEWG) de la Global Privacy Assembly (GPA). Elle appelle les organisations à mettre en place des mesures de gouvernance adaptées et à intégrer la protection des données dès la conception des systèmes d’IA.
Dans ce contexte, les juristes jouent un rôle central dans l’encadrement de l’usage de ces technologies au sein des organisations. Plusieurs axes de vigilance se dégagent :
À mesure que les capacités de l’IA progressent, la gestion des identités numériques – visages, voix et représentations virtuelles – devient un enjeu stratégique de conformité. Pour les entreprises, l’enjeu ne se limite plus à l’innovation technologique : il s’agit aussi de préserver la confiance, la réputation et les droits fondamentaux des personnes concernées.