Les enjeux juridiques soulevés par l’actrice virtuelle Tilly Norwood

Depuis quelques années, les influenceurs virtuels générés par intelligence artificielle gagnent en visibilité. Des figures comme Lil Miquela ont démontré que ces entités pouvaient générer un fort engagement sans les contraintes inhérentes à la gestion d’une personnalité humaine. Le secteur de l’audiovisuel paraît aujourd’hui prêt à amorcer cette transition.

C’est à l’occasion du Festival du film de Zurich, le 27 septembre 2025, qu’Eline Van der Velden, fondatrice du studio britannique Particle6, présente Tilly Norwood comme une actrice virtuelle capable de jouer, parler, réagir, et évoluer.

Dans quelle mesure la création d’acteurs virtuels est-elle susceptible de porter atteinte au droit positif et quels sont les outils juridiques envisageables pour y remédier ?

Enjeux juridiques émergents :

Le syndicat américain SAG-AFTRA, représentant environ 160 000 professionnels des médias et du divertissement, affirme dans un communiqué que l’actrice virtuelle est le produit d’un entrainement sur les performances d’artistes réels, sans leur autorisation, ni compensation.

Outils juridiques américains susceptibles d’apporter des réponses :

Aux États-Unis, il existe le right of publicity, un droit patrimonial à l’image qui permet de tirer profit des utilisations économiques des attributs de la personne, comme l’image et la voix. Ce droit est atteint lorsque l’identité d’une personne est utilisée à des fins lucratives sans autorisation.

En l’espèce, si l’on parvenait à établir que Tilly reproduit la voix ou l’image d’un acteur identifiable, comme le soutient le syndicat, ce fondement juridique pourrait être invoqué dès lors que cette reproduction est utilisée à des fins lucratives. Il convient par ailleurs de relever que plusieurs internautes ont mis en évidence une ressemblance frappante entre Tilly et certaines actrices américaines de renom. (Les litiges dans ce domaine dépendent de l’analyse des conditions du fair use qui agit comme une exception à ce droit.)

Le syndicat SAG-AFTRA rappelle aux producteurs signataires de son accord collectif qu’ils sont contractuellement tenus d’informer et de négocier préalablement à toute utilisation d’acteurs virtuels. Le contrat constitue ici un instrument juridique particulièrement efficace, en ce qu’il impose une obligation de négociation sans exiger la preuve préalable d’une reproduction de la voix ou de l’image de l’artiste.

Cette stratégie contractuelle s’inscrit dans un mouvement de protection de la voix et de l’image de l’artiste. L’épisode récent le plus emblématiques concerne le film Alien: Romulus, dans lequel le visage et la voix du défunt Ian Holm ont été reconstitués grâce à l’intelligence artificielle. À la suite de cet épisode, la SAG-AFTRA a soutenu et salué l’adoption par le Sénat californien de la loi AB 1836, laquelle interdit désormais l’utilisation de répliques numériques d’artistes décédés dans divers médias sans le consentement des ayants droit.

I. Les atteintes potentielles au droit positif

A. Les droits voisins

Les artistes interprètes disposent de prérogatives leur permettant de contrôler l’exploitation de leurs prestations (CPI, art. L212-1 et suivants). Dans le contexte des acteurs virtuels, cette atteinte peut se manifester à trois niveaux, dans l’hypothèse où les données d’entraînement comprendraient des prestations d’artistes :

  • Lors de l’apprentissage (input) : il s’agirait d’un acte de reproduction non autorisé, portant ainsi atteinte aux droits patrimoniaux de l’artiste. Cela serait particulièrement vrai si l’artiste concerné a exercé son droit d’opt-out prévu par la directive européenne 2019/790 relative au text and data mining. La violation de ce droit d’opt-out engage la responsabilité pour contrefaçon.
  • Lors de la génération de contenu (output) : à supposer que le public ne perçoive aucune reprise directe, la création résultant de l’input reste susceptible de constituer une communication au public.
  • Il existe également un risque de violation des droits moraux, notamment le droit au respect de l’interprétation et le droit de s’opposer à toute modification qui dénaturerait la prestation.

B. Le droit pénal

  • L’article 226‑8 du Code pénal prévoit une répression spécifique des diffusions non consenties d’images ou de paroles, qu’il s’agisse de montages ou de contenus générés par traitement algorithmique, s’il n’apparaît pas à l’évidence qu’il s’agit d’un montage ou s’il n’en est pas expressément fait mention, sanctionnant l’infraction d’un an d’emprisonnement et de 15 000 euros d’amende.
  • Cette incrimination s’applique explicitement aux créations générées par intelligence artificielle, de plus, lorsque l’infraction est commise par la voie d’un service de communication au public en ligne, les peines sont doublées. Cette aggravation est particulièrement pertinente dans le contexte des acteurs virtuels.

C. Droit à l’image

  • Outre les dispositions précédemment évoquées, le droit à l’image et le droit à la vie privée sont protégés par le Code civil (art. 9). Si l’artiste parvient à établir l’utilisation de son image, il pourrait se prévaloir de ce fondement.

D. LE RGPD

  • L’utilisation des données personnelles de l’artiste, telles que son visage ou sa voix, peut constituer un traitement de données personnelles au sens du Règlement général sur la protection des données. Ces traitements doivent respecter les principes de licéité, de transparence et de proportionnalité prévus aux articles 5 et 6 du RGPD. L’article 226‑16 du Code pénal prévoit des sanctions pour certaines violations de données personnelles allant jusqu’à 5 ans de prison et 300 000 € en France.

En somme, même si Tilly Norwood ou d’autres intelligences artificielles similaires sont entièrement synthétiques, leur déploiement semble incompatible avec le droit positif. Il reste toutefois très difficile pour un artiste de faire valoir ces fondements légaux, dans la mesure où il lui faudrait prouver la trace de ses prestations dans le résultat final, ici l’acteur virtuel.

II. Les solutions futures amenées par le règlement européen sur l’intelligence artificielle

L’AI Act, actuellement en cours d’adoption, prévoit des obligations spécifiques, pouvant faciliter la démonstration de l’exploitation des prestations protégées.

  • Dans le cadre des intelligences artificielles à usage général, dont Tilly satisfait les critères, les fournisseurs doivent documenter le fonctionnement de leur modèle, veiller au respect des droits d’auteur et des droits voisins, et mettre à disposition un résumé des données utilisées pour l’entraînement (AI Act, art. 53).
  • S’agissant des intelligences artificielles à risque limité, auxquelles Tilly répond également, il faut indiquer de manière claire et explicite la nature artificielle des contenus. De même, les contenus susceptibles de constituer des deep fakes doivent signaler explicitement leur caractère artificiel. La communication de ces informations doit se faire dès la première exposition des utilisateurs (AI Act, art. 50). En l’espèce, Tilly a été présentée comme totalement synthétique, dès sa première apparition.

Conclusion

L’intelligence artificielle s’immisce de plus en plus dans les métiers créatifs, L’AI Act constitue un instrument prometteur, mais des sujets comme la charge de la preuve reste entièrement supportée par l’artiste, dans ce contexte, l’instauration d’une présomption légale en sa faveur apparaît comme une nécessité pour assurer une protection effective et réaliste de ses droits.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *