Le Danemark adopte une loi anti-deepfakes : un tournant pour la protection de l’image et du droit d’auteur

Pour contrer la montée en puissance des deepfakes et protéger les droits des citoyens, le Parlement danois a adopté une loi inédite en Europe, imposant des sanctions sévères à l’utilisation non consentie d’images ou de voix pour générer des contenus manipulés par IA. Cette législation, selon Nextpit, se veut un rempart face à la prolifération de vidéos ou d’avatars deepfakes, qui exploitent l’image ou la voix d’autrui sans autorisation. Mais elle marque surtout un pas décisif dans la reconnaissance juridique de la propriété intellectuelle appliquée aux traits physiques et sonores, une avancée qui pourrait inspirer d’autres pays européens.

Le deepfake, nouvelle frontière de la violation de la propriété intellectuelle

Un usage grandissant et souvent malveillant

Les deepfakes, ces vidéos ou enregistrements audio générés par IA qui imitent à la perfection l’apparence ou la voix d’une personne, connaissent un essor fulgurant. Leur sophistication rend de plus en plus difficile la distinction entre un contenu authentique et une imitation. Or, utiliser le visage ou la voix d’une personne sans son accord constitue une appropriation de son identité, un domaine jusqu’alors peu protégé par le droit d’auteur classique.

La nouvelle loi danoise inscrit clairement que l’image et la voix sont des éléments protégés au même titre qu’une œuvre de l’esprit, et interdit leur usage à des fins de simulation, notamment pour créer des contenus diffamatoires ou frauduleux. Le texte précise également que le consentement explicite de la personne concernée est indispensable pour toute reproduction numérique réaliste.

La reconnaissance juridique de l’image comme propriété intellectuelle

Traditionnellement, le droit d’auteur protège une œuvre artistique, musicale ou littéraire, mais pas le simple fait d’avoir un visage ou une voix reconnaissable. La loi danoise vient bousculer cette frontière en assimilant l’image et la voix à des éléments de propriété intellectuelle : ils deviennent ainsi des biens protégés, dont la reproduction ou la modification doit faire l’objet d’une autorisation préalable. Cette innovation législative ouvre la voie à une jurisprudence qui pourrait renforcer les droits des individus face aux usages abusifs de leur identité numérique.

Un cadre légal strict et des sanctions exemplaires

Des amendes dissuasives et un recours facilité pour les victimes

La loi prévoit des amendes pouvant atteindre 100 000 couronnes danoises (environ 13 000 euros) et des peines de prison en cas de récidive ou de préjudice majeur. Elle offre également aux victimes un droit simplifié de retrait des contenus illicites, obligeant les plateformes à supprimer rapidement les deepfakes signalés. Cette responsabilité directe des hébergeurs place la charge du contrôle non plus seulement sur l’utilisateur final, mais sur les acteurs qui diffusent ou monétisent ces contenus.

Selon Nextpit, cette approche marque une rupture avec la logique de « neutralité de l’hébergeur », longtemps défendue par les géants du numérique, et s’aligne sur une conception plus proactive de la protection des droits individuels.

Des implications majeures pour les créateurs de contenus IA

La loi danoise n’épargne pas les développeurs d’outils d’IA : elle impose à ceux-ci de mettre en place des filtres et des garde-fous empêchant la génération de deepfakes non consentis. Les entreprises qui ne se conforment pas à ces exigences s’exposent à des sanctions, même si elles ne publient pas elles-mêmes les contenus. Cette responsabilité élargie pourrait obliger les acteurs du secteur à revoir en profondeur leurs modèles d’entraînement et leurs bases de données, notamment en vérifiant que les images ou voix utilisées comme corpus n’empiètent pas sur les droits à l’image ou la propriété intellectuelle.

Avec sa loi anti-deepfakes, le Danemark ouvre un nouveau chapitre dans la protection des droits individuels, en affirmant clairement que l’image et la voix relèvent de la propriété intellectuelle. En encadrant strictement l’usage des technologies de génération IA, ce texte pourrait devenir un modèle pour d’autres pays européens, dans un contexte où la frontière entre innovation technologique et respect des droits fondamentaux devient de plus en plus floue.

Les entreprises développant ou utilisant des IA génératives devront désormais :

  • obtenir l’accord écrit des personnes dont l’image ou la voix est exploitée ;
  • inclure des clauses contractuelles sur l’usage et la diffusion des contenus générés ;
  • garantir dans leurs CGU une politique claire de retrait des contenus illicites.

Ces éléments permettront de sécuriser juridiquement l’usage des deepfakes dans un cadre respectueux de la propriété intellectuelle.

La loi danoise pose une question clé : faut-il un cadre européen harmonisé pour protéger l’image et la voix comme des biens relevant de la propriété intellectuelle ? Cette initiative pourrait devenir la première pierre d’une législation continentale visant à responsabiliser développeurs, plateformes et utilisateurs face à l’essor des technologies de simulation IA.