Rapport de mission du CSPLA sur la loi applicable aux modèles d’intelligence artificielle générativedu 18 décembre 2025.

La Conseil supérieur de la propriétaire littéraire et artistique (CSPLA) vient de publier ce 18 décembre le très attendu rapport portant sur la loi applicable aux modèles d’IA générative. 

Aujourd’hui, une situation de droit implique presque systématiquement un élément d’un ordre juridique étranger : nationalité du contrefaisant, domiciliation des serveurs d’IA ou encore lieu de diffusion des contrefaçons. 

Cette question soulève des réelles problématiques et notamment la détermination de la loi applicable au litige. 

En droit international privé, on appelle règles de conflit de loi, les mécanismes permettant de désigner la loi d’un pays à une relation de droit donnée. 

De manière générale, en termes d’atteinte à des droits de propriété littéraire et artistique, la règle de conflit de loi classique est celle de la lex loci protectionis à savoir la loi du pays pour lequel la protection des droits est revendiquée. Toutefois, une telle règle de conflit de loi peut-elle s’appliquer lorsque l’atteinte est réalisée par des systèmes d’IA ? 

Le rapport du CSPLA entend proposer des pistes de réflexion en analysant d’une part les règles actuelles du droit international privé (a) et en analysant d’autre part ce que pourrait être la solution en fonction du règlement européen sur l’intelligence artificielle (IA Act) (b). 

I- La loi applicable en dehors des dispositions de l’IA Act

Le rapport rappelle tout d’abord qu’il est nécessaire de distinguer : 

  • L‘imput qui correspond aux contenus destinés à l’entraînement des système d’IA de,
  • L’output qui lui désigne les réponses générées par lesdits systèmes. 

Le rapport considère qu’il est illusoire de pouvoir localiser les input des systèmes d’IA générative. En effet, l’entraînement des systèmes d’IA peut se situer dans différents pays et peut même inclure des « input médians » rendant la tâche de localisation encore plus complexe. 

L’approche à adopter serait donc celle d’une approche appréhendant juridiquement « l’imput dans ses rapports avec l’output« .

Le rapport rappelle que : 

« il n’y a pas de résultat sans collecte préalable de contenus et, réciproquement, la collecte n’existe que pour générer un résultat. Les deux évènements ne sont donc, en réalité, que les extrémités d’un processus d’exploitation plus global, potentiellement contraire au droit de la propriété littéraire et artistique. »

Il conviendrait donc de considérer l’opération dans un ensemble global et d’assimiler toute atteinte à des droits de propriété intellectuelle par des systèmes d’IA à un « délit complexe » au sens de la jurisprudence européenne.

Selon cette approche, la loi applicable dans ce cas précis serait donc « la loi du pays où les utilisateurs accèdent aux réponses nourries de l’oeuvre [l’output] – autrement dit le pays de commercialisation du modèle d’IA« . 

Exemple : je constate en utilisant un système d’IA américain disponible en France que je peux générer un texte lu par un comédien français sans son autorisation. L’output généré par le système d’IA m’est accessible en France, dès lors la loi applicable est la loi française.   

Une telle solution serait applicable dans le cadre d’une contrefaçon d’une réponse générée par IA. 

En reprenant notre exemple, si le texte lu par la voix du comédien français est publié sur une vidéo Youtube qui est accessible en France, alors la loi française est aussi applicable. 

Le rapport précise enfin que la question de savoir si le contenu produit par ou à l’aide de l’IA est protégé ou non au titre du droit d’auteur serait également tranchée par la lex loci protectionis soit en l’espèce, la loi du pays d’exploitation du contenu. 

II- La loi applicable en fonction des dispositions de l’IA Act

Il est important de rappeler que l’IA Act ne prévoit aucune règle de conflit de lois à proprement parler. 

Afin de couvrir une majorité de cas, le rapport évoque deux hypothèses distinctes. 

1) Première hypothèse : la loi applicable est celle de l’output

Le rapport considère que « sans être une règle de conflit de lois, le considérant 106 influe nécessairement sur la solution du conflit de lois« . 

En effet, ce considérant prévoit que les fournisseurs d’IA doivent respecter les dispositions prévues et ce « quelle que soit la juridiction dans laquelle se déroulent les actes pertinents au titre du droit d’auteur qui sous-tendent l’entraînement de ces modèles d’IA à usage général« .

Sur le fondement de ce considérant, le rapport considère donc que le règlement devrait s’appliquer à des actions en contrefaçon et devrait donc désigner également la loi de l’output, à savoir la loi du pays où le contenu généré par le système d’IA est accessible

2) Deuxième hypothèse : la loi applicable est celle de l’imput

Même à considérer que le règlement désigne en réalité la loi de l’imput, à savoir la loi du pays où l’entraînement des données a eu lieu, la solution devrait demeurer inchangée. 

En effet, le rapport considère que la législation européenne sur les droits d’auteurs et droits voisins applicable aux fournisseurs d’IA pourrait être considérée comme une loi de police

Une loi de police est une loi qui ne peut être exclue par un juge national en raison de son « intérêt public essentiel« . 

Le rapport va encore plus loin et considère que cette législation européenne pourrait faire partie de « l’ordre public international« . 

Selon l’exception dite d’ordre public international, « le juge national doit écarter l’application de toute loi étrangère dont l’application aboutirait à des résultats choquants au regard des valeurs essentielles de son ordre juridique« . 

Cette qualification pourrait s’appliquer à la législation protectrice des droits d’auteur et droits voisins en raison du fait que ces droits sont des droits fondamentaux protégés par l’article 17 para. 2 de la Charte des droits fondamentaux de l’Union européenne. 

Le rapport se fonde notamment sur le1er considérant de l’IA Act qui rappelle l’importance des droits fondamentaux consacrés par la Charte des droits fondamentaux de l’Union européenne.

Exemple : un système d’IA commercialisé en Union européenne a procédé à un entraînement de ses données en Chine en utilisant sans autorisation la voix d’un comédien français. Selon cette deuxième hypothèse, la loi applicable est celle de l’input et donc la loi chinoise. Mais la qualification de loi de police ou d’exception d’ordre public international fait échec à la loi chinoise et le droit européen et notamment la loi française est donc applicable.

A RETENIR : Ce rapport nous semble positif dès lors qu’il considère que IA Act ou hors IA Act, la loi applicable en cas d’atteinte à des droits d’auteur ou droits voisins par un système d’intelligence artificielle demeurerait la lex loci protectionis à savoir la loi du pays pour lequel la protection des droits est revendiquée. 

Cette loi est historiquement celle qui a été édifiée, notamment par la Convention de Berne de 1979, comme étant celle qui permettait la protection la plus efficace des titulaires de droits d’auteur ou droits voisins. 

Il faut toutefois rappeler que ce rapport n’a aucune valeur normative et constitue pour l’instant qu’une interprétation du vide juridique auquel nous faisons face. 

La prochaine étape est donc de consolider ces solutions afin de pouvoir protéger efficacement l’ensemble des acteurs de la création artistique dans leurs rapports avec l’intelligence artificielle.  

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *