New York Times et autres v. OpenAI et autres, US Southern District Court of New York, 2 décembre 2025
- Une nouvelle décision est tombée dans l’action intentée par le New York Times et d’autres groupes de presse contre l’utilisation non autorisée d’articles dans les modèles utilisés par ChatGPT.
- Par une décision du 7 novembre dernier, la Cour avait ordonné à OpenAI de produire 20 millions de logs (historiques d’interface ChatGPT avec les utilisateurs).
- Dans le cadre d’une requête en reconsidération, OpenAI considérait toutefois qu’une telle divulgation portait atteinte aux données personnelles de ses utilisateurs.
- L’obligation de transparence constitue-t-elle une atteinte aux données personnelles des utilisateurs ?
- La Cour juge que lorsque cette demande est proportionnée et présente des garanties de sécurité suffisantes, aucune atteinte, ni risque d’atteinte à la sécurité des données des utilisateurs ne saurait être constaté.
- La décision du 2 décembre 2025 de la US Southern District Court of New York participe pleinement à la limitation des exceptions formulées par les sociétés exploitant des systèmes d’intelligence artificielle.
- Il conviendra de garder un œil attentif au déroulement de l’appel de cette décision formulé par OpenAI ainsi qu’aux autres décisions à venir aux Etats-Unis et ailleurs.
Contexte :
En 2023, le New York Times, joint ensuite par divers groupes de presse, a introduit une action en justice à l’encontre d’OpenAI, Microsoft et diverses plateformes de Meta pour avoir utilisé des millions d’articles de leur journal aux fins d’entrainement de leurs modèles utilisés par ChatGPT et ce sans autorisation ni compensation.
Afin de pouvoir démontrer leurs allégations, les groupes de presse ont demandé au Tribunal d’enjoindre OpenAI de communiquer plusieurs dizaines de milliards de « logs » (historiques d’interface ChatGPT avec les utilisateurs).
Les parties se sont ensuite accordées sur la divulgation d’un set de logs d’environ 20 millions.
OpenAI considérait toutefois que ces données ne pouvaient pas être communiquées telles quelles et arguait d’un risque de compromission des données personnelles des utilisateurs.
Par une décision du 7 novembre dernier, la Juge de la US Southern District Court of New York a toutefois fait droit à la requête des demandeurs et a ordonné à OpenAI de produire les 20 millions de logs.
OpenAI a déposé une « requête en reconsidération” au terme de laquelle la Cour s’est prononcée dans une décision du 2 décembre dernier.
Qu’en a décidé la US Southern District Court of New York ?
I. Sur la décision du 2 décembre 2025 de la US Southern District Court of New York
Dans un premier temps, la Cour a considéré que les données dont la communication était demandée étaient pertinentes pour apprécier
non seulement :
- le bienfondé des demandes des groupes de presse,
- mais également la défense d’Open AI, laquelle invoquait le fair use
Dans un second temps, la Cour a considéré que cette communication était proportionnée et ce pour les raisons suivantes :
- Les 20 millions de logs demandés représentent 0.05% des logs initialement visés par les demandeurs ;
- Les données sont en cours d’anonymisation par OpenAI ;
- La consultation des données ne pourra être faite que par des avocats.
La Cour de New York a donc considéré que « la production de l’échantillon complet de 20 millions de logs est proportionnée aux besoins
de l’affaire. »
II. Vers une obligation de transparence New-Yorkaise ?
L’approche portée par cette décision fait écho aux principes de l’Union Européenne édictés par l’IA ACT et notamment l’obligation de transparence relative aux données d’entraînement utilisées par les systèmes d’intelligence artificielle (article 50) ainsi qu’au résumé suffisamment détaillé de ces données (article 53).
La Cour New Yorkaise ouvre un peu plus la voie à une lecture des données d’entraînement exploitée par les plateformes d’IA génératives lorsque celles-ci sont exigées dans le cadre d’une procédure judiciaire.
III. L’obligation de transparence constitue – t-elle une atteinte aux données personnelles des utilisateurs ?
A l’évidence non.
La Cour, par sa motivation, rappelle ici que lorsque cette demande est proportionnée et présente des garanties de sécurité suffisantes, aucune atteinte, ni risque d’atteinte à la sécurité des données des utilisateurs ne saurait être constaté.
Ainsi, la Cour bat en brèche un potentiel axe de défense des plateformes d’IA génératives qui tenteraient d’échapper à toute demande de
divulgation en invoquant la protection de la vie privée de leurs utilisateurs.
Pareil argument doit être rapproché du secret des affaires autre exception invoquée par les plateformes d’IA génératives pour échapper à
l’exigence de transparence.
Ce moyen de défense semble toutefois être mis à mal par une décision du 27 février 2025 de la Cour de justice de l’Union Européenne (C-203/22) qui a considéré que le règlement général sur les données personnelles (RGPD) primait sur le secret des affaires.
A retenir :
La décision du 2 décembre 2025 de la US Southern District Court of New York participe pleinement à la limitation des exceptions
formulées par les sociétés exploitant des systèmes d’intelligence artificielle.
Ces décisions font valoir que des divulgations encadrées et respectueuses des droits de chacun des données d’entrainement sont
nécessaires pour permettre de démontrer s’il y a eu ou non utilisation non autorisée de données personnelles ou contenus protégés.
Toutefois, prudence est de mise : la communication de ces « logs » n’a toujours pas eu lieu et un appel formé par OpenAI est toujours en
cours.
Il conviendra de garder un œil attentif au déroulement de l’appel de cette décision ainsi qu’aux autres décisions à venir aux Etats-Unis et
ailleurs.
To Be Continued…

Laisser un commentaire