Procès Getty Images Getty Images contre Stability AI : un procès décisif sur l’usage d’œuvres protégées dans l’entraînement des IAProcès Getty Images
En ce mois de juin 2025 s’ouvre devant la High Court de Londres un procès historique entre la banque d’image américaine Getty Images et la société britannique Stability AI, éditrice du modèle génératif Stable Diffusion.
Cette procédure a été introduite en 2023 par Getty Images, qui détient plusieurs millions de photographies produites par plus de 600 000 créateurs, reproche à Stability AI d’avoir indûment exploité ses contenus protégés afin d’entraîner son système d’intelligence artificielle générative. D’après Getty Images, la société aurait procédé, sans autorisation, à l’extraction de plusieurs millions d’images depuis ses sites web soit environ 7,5 millions d’éléments visuels pour constituer la base d’apprentissage du modèle Stable Diffusion.
En parallèle, Getty Images a lancé une action similaire aux États-Unis. Stability AI, valorisée par des centaines de millions de dollars d’investissements et qui a récemment reçu le soutien d’une des plus grandes agences publicitaires (WPP) , fait valoir que l’entraînement de l’IA relève de l’innovation technologique et de la liberté d’expression.
Les porte-parole de Stability déclarent que les artistes utilisant Stable Diffusion « créent des œuvres bâties sur le savoir humain collectif », un principe au cœur de la notion américaine de « fair use »
De leur côté les représentants de Getty Images soulignent que ce n’est pas une guerre « entre les créatifs et la technologie, ou une victoire de Getty signifierais la fin de l’IA ».
Selon ces derniers, les deux secteurs peuvent coexister en synergie – les droits d’auteur étant indispensables au succès des IA – mais « le problème, c’est quand des entreprises comme Stability veulent utiliser ces œuvres sans rien payer »
Pratique et largement diffusé, Stable Diffusion est un modèle open source capable de générer des images à partir de descriptions textuelles. Il a été entraîné sur un corpus gigantesque (la base LAION-5B dérivée de Common Crawl) d’environ 5 milliards de paires image/légende collectées sur Internet.
La plupart de ces contenus sont protégés par le droit d’auteur, et nullement acquis auprès des ayants droit. Stable Diffusion peut ainsi produire des images très réalistes – parfois même reprenant par inadvertance des filigranes de Getty – ce qui illustre les enjeux pratiques de cette affaire. Les créateurs se méfient de l’usage d’IA non contrôlées, tandis que les développeurs d’IA s’alarment de possibles freins légaux à l’accès libre à de vastes corpus d’entraînement
Ce litige s’inscrit dans un contexte mondial de tensions croissantes entre titulaires de droits et développeurs d’IA[1], alors que de nombreux modèles d’IA générative ont été entraînés sur des corpus massifs sans licence claire.
C’est ce qui fait que ce jugement est très attendu, il pourrait constituer une première décision de fond sur l’usage de données protégées par des systèmes d’intelligence artificielle invoquant l’exception de fair use.
Analyse juridique :
En droit britannique (loi CDPA 1988), le titulaire dispose notamment d’un droit exclusif de reproduction (article 16) : reproduire une œuvre protégée constitue théoriquement une copie illicite.
En somme, Getty Images reproche à l’entreprise d’avoir, d’une part, utilisé des millions d’images protégées pour l’entraînement de son système d’intelligence artificielle, et d’autre part, reproduit des éléments substantiels de son contenu protégé lors de la génération d’images.
Cette affaire permet de nouveau de s’interroger sur la cohabitation difficile entre l’input (les données utilisées pour entrainer le système), l’output le résultat de la génération) et le respect des droits d’auteur.
Sur la question de l’input :
Getty allègue que Stability AI a entraîné ses modèles sur la base de données « LAION-5B » comprenant des milliards de paires image-texte obtenues par scraping[2] de liens vers des photographies et vidéos provenant de divers sites, dont ceux de Getty.
Extraire des images sans licence équivaudrait à appropriation d’extraits substantiels de ses œuvres et donc à une contrefaçon.
Stability AI, tout en reconnaissant l’utilisation marginale d’images de Getty, conteste toute contrefaçon, arguant que l’entraînement s’est déroulé hors du Royaume-Uni, échappant ainsi à la juridiction britannique qui serait incompétente.
Sur la question de l’output :
En plus de l’utilisation de contenus protégés non autorisée, les résultats produits par Stable Diffusion, même s’il s’agit de nouvelles images, peuvent contenir des éléments d’œuvres originales antérieures reconnaissables dans leur composition mais également grâce à un filigrane permettant de les identifier.
Ce filigrane, qui apparaît systématiquement sur les versions en basse résolution disponibles en ligne, constitue une signature visuelle indissociable du contenu Getty. Or, il est particulièrement troublant de constater que certaines images générées par Stable Diffusion le reproduise.
Stability AI conteste les accusations de violation en affirmant que les images générées par ses modèles ne reproduisent pas d’œuvres protégées par Getty, et que toute ressemblance serait résulterait de coïncidences et non de sa propre initiative, précisant avoir mis en place des mesures raisonnables pour prévenir de telles violations.
Un tel raisonnement qui emporterait difficilement la conviction d’un juge français, révèle les contradictions inhérentes à l’application du fair use dans le cadre de l’exploitation des plateformes d’IA génératives.
Tout en reconnaissant implicitement l’utilisation d’œuvres protégées pour l’entraînement de ses modèles, Stability AI nie toute reproduction substantielle dans les outputs, qualifiant les ressemblances de fortuites.
Une telle assertion paraît difficilement conciliable avec la persistance de filigranes et caractéristiques reconnaissables.
Cette approche duale, qui consiste d’une part à s’abriter derrière le caractère transformatif des générations algorithmiques pour revendiquer un usage loyal, tout en rejetant la responsabilité sur les utilisateurs finaux, témoigne d’une tentative de contournement des principes fondamentaux du droit d’auteur.
En droit français, la reproduction d’œuvres protégées, même sous forme dégradée ou fragmentaire, soulève des questions substantielles quant au respect du droit exclusif de reproduction (article L.122-3 CPI).
La stratégie défensive employée par Stability IA, bien que courante dans l’industrie des grands modèles d’IA, révèle une incohérence fondamentale entre le principe affiché de fair use et la réalité technique des processus d’apprentissage automatique.
Comment prétendre qu’un tel usage pourrait être raisonnable alors même qu’il est réalisé à des fins commerciales afin d’alimenter un système d’IA générative grâce à une quantité colossale d’œuvres protégées pour lesquelles aucun accord des ayants droit n’a été obtenu.
Portée :
Un jugement en faveur de Getty Images établirait un précédent majeur pour l’entraînement des IA génératives.
Les conséquences pratiques seraient considérables : les développeurs d’IA pourraient être contraints de négocier des licences pour l’intégralité de leurs jeux de données d’entraînement incitant les éditeurs de modèles à obtenir au préalable le consentement des créateurs et permettrait de les rémunérer.
Outre cela, le RIA ACT qui en Europe soumet les fournisseurs de modèles d’IA génératives à une obligation de transparence. Ces derniers ont l’obligation « rédiger et mettre à la disposition du public un résumé suffisamment détaillé du contenu utilisé pour la formation du modèle » (article 53.1 d) et les contraint également à « mettre en place une politique visant à respecter le droit de l’Union en matière de droit d’auteur et de droits voisins, » (53,1, c). Autrement dit en l’absence de transparence, et s’ils ne montrent pas patte blanche, ils ne seront pas autorisés à exploiter légalement leurs modèles.
À l’inverse, considérer que l’exploitation précitée relèverait du fair use, inciterait manifestement les fournisseurs de systèmes d’IA à recourir à une telle défense et opposer un usage loyal.
L’on sait aussi que le Fair Trade Commission tend à restreindre une interprétation trop large de la notion de fair use en matière d’exploitation de données d’entraînement d’une IA (Tenessee Elvis Act, US CopyRight Office).
A suivre…
[1] Par exemple New York Times c. OpenAI (décembre 2023‑en cours) le timespoursuit OpenAI, l’accusant d’avoir utilisé des centaines de milliers d’articles protégés pour nourrir ses modèles, aboutissant à des reproductions verbatim potentielle
[2] Technique de « récupération et organisation automatisées des données Web » ; c’est la principale forme de data mining et d’extraction des données de sites web, via un script ou un programme.
Maître Jonathan Elkaim – Avocat
Alessandro Tummillo – Juriste
Envie d’en savoir plus ? Suivez-nous sur LinkedIn pour ne rien manquer de l’actualité du droit des nouvelles technologies !
Laisser un commentaire