La Cour d’appel de Paris éclaire la réparation des préjudices économiques liés à l’usage d’un système d’IA générative

Dans un contexte de jurisprudence encore embryonnaire, la Cour d’appel de Paris apporte un éclairage important sur les conditions de responsabilité civile applicables aux systèmes d’intelligence artificielle générative. Elle propose une véritable feuille de route, qualifiée de « prospective », pour guider les juges dans l’appréciation des préjudices économiques nés de l’usage de ces technologies dans le cadre de contentieux judiciaires.

Sans réelle surprise, la Cour rappelle que la responsabilité directe du système d’IA ne peut être envisagée, faute pour celui-ci de disposer de la personnalité juridique. La responsabilité civile ne peut donc s’appliquer qu’à l’utilisateur du système ou au professionnel en charge de sa mise en œuvre et de son exploitation.

L’une des principales difficultés soulevées par la Cour réside dans l’établissement du lien de causalité entre la faute reprochée et le préjudice invoqué. Cette difficulté est exacerbée par l’opacité inhérente aux processus décisionnels des algorithmes d’apprentissage automatique. Il est en effet particulièrement complexe de démontrer avec certitude que le résultat produit par le système d’IA correspondait à l’intention de l’utilisateur ou qu’il en résulte nécessairement une faute.

Sur le terrain de la preuve, la Cour suggère de se référer au faisceau d’indices précis et concordants, en s’appuyant sur les principes dégagés par l’article 1382 du Code civil. Dans cette perspective, le Règlement sur l’Intelligence Artificielle (RIA ACT) aura un impact significatif sur l’appréciation de la preuve, en renforçant les exigences de transparence et de documentation à la charge des fournisseurs de systèmes d’IA générative.

Ces derniers devront faire preuve d’une vigilance accrue en matière de respect des obligations réglementaires, notamment en ce qui concerne la transparence, l’évaluation des risques et la sécurité des données traitées. Le non-respect de ces obligations pourra être interprété comme un manquement susceptible d’engager leur responsabilité.

En matière de contrefaçon, la Cour rappelle les fondements de l’article L.122-5 du Code de la propriété intellectuelle. Elle précise que l’exception de fouille de données (text and data mining), y compris lorsqu’elle poursuit un objectif commercial, n’est applicable que si deux conditions cumulatives sont réunies :

  • l’accès aux contenus protégés doit avoir été licite,
  • le titulaire des droits ne doit pas avoir exercé son droit d’opposition (« opt-out »).

Ainsi, le titulaire des droits pourra démontrer que l’accès à ses œuvres s’est fait sans son autorisation explicite, et donc de manière illicite, dès lors qu’il n’a pas renoncé à son droit d’opt-out.

Cette position s’inscrit dans la logique des articles 53.1 c) et 53.1 d) du RIA ACT, qui imposent aux fournisseurs de modèles d’IA générative de mettre en œuvre une politique générale de respect des droits d’auteur, ainsi que de publier un résumé suffisamment détaillé du contenu utilisé pour l’entraînement des modèles.

Le non-respect de ces obligations pourra constituer un faisceau d’indices concordants, permettant d’établir la contrefaçon et de justifier l’indemnisation des titulaires de droits.

Maître Jonathan Elkaim – Avocat

Lien de la fiche de la Cour d’Appel de Paris :

https://www.cours-appel.justice.fr/sites/default/files/2025-06/fiche%2024%20CA%20Paris%20-%20usage%20d%27un%20syst%C3%A8me%20d%27IA.pdf

Envie d’en savoir plus ? Suivez-nous sur LinkedIn pour ne rien manquer de l’actualité du droit des nouvelles technologies !

https://www.linkedin.com/posts/jonathan-elkaim-5212ba6_ca-pr%C3%A9judice-ia-activity-7341835750453178369-EtZw?utm_source=share&utm_medium=member_desktop&rcm=ACoAAEJgPdEB7cZNQFfJzvJmr082TdBkzyTOQB0

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *