Les juges américains plutôt favorables au fair use pour l’entraînement des IAg
Aux États-Unis, les juges sanctuarisent le fair use pour l’entraînement des intelligences artificielles génératives, mais ils préservent la possibilité d’une rémunération pour les auteurs de livres.
Les 23 et 25 juin 2025, deux décisions de la justice américaine ont esquissé la manière dont les équilibres pourront se construire autour de la notion de fair use quand il s’agit d’entraîner les intelligences artificielles génératives sur des œuvres protégées par le droit d’auteur, en l’espèce le régime du copyright américain. La première décision de justice concerne Anthropic et son chatbot Claude, lequel a été entraîné sur des ouvrages protégés par le droit d’auteur, ceci sans autorisation préalable et sans rémunération. Pour le juge californien William Alsup, Anthropic a fait un « usage raisonnable » (fair use) des livres de Andrea Bartz, de Charles Graeber et de Kirk Wallace Johnson pour entraîner Claude. Les réponses du chatbot peuvent, certes, s’en inspirer, mais elles sont, pour le juge, suffisamment différentes pour ne pas relever du plagiat. Dans ce cas, l’entraînement des IAg sur des livres correspond à ce qu’un lecteur ferait en souhaitant devenir écrivain, à savoir se former et se confronter aux œuvres des autres. Le juge a, par ailleurs, souligné que l’IAg est une technologie révolutionnaire, sous-entendant que le recours au fair use pour son développement ne devait pas être entravé.
Cette décision semble contraire aux intérêts des auteurs de livres. Toutefois, le juge précise également que la stratégie de régularisation de ses pratiques par Anthropic n’est pas recevable. Suite à la class action à l’origine de la plainte, Anthropic a acheté une copie des ouvrages utilisés pour l’entraînement de Claude, à l’origine récupérés sur une base de données pirate. Pour le juge, cette pratique ne saurait être considérée comme une manière de légaliser des pratiques contestables. Il souligne qu’Anthropic a d’abord utilisé une base de données de 7 millions de livres piratés pour entraîner son IA, ce qui est illégal, tout comme la constitution, ensuite, d’une bibliothèque de l’entreprise qui serait utilisée à grande échelle pour entraîner les IAg, sans rémunération autre que l’achat d’un seul exemplaire par ouvrage. Pour cette raison, le juge ouvre la possibilité d’une rémunération pour les auteurs quand leurs ouvrages servent à l’entraînement des IAg, tout en limitant les possibilités d’opt-out, c’est-à-dire l’interdiction d’utiliser les œuvres, le fair use étant reconnu. Si la décision est une victoire pour les sociétés d’intelligence artificielle, elle l’est donc également pour les auteurs, mais en partie seulement. Certains auteurs estiment qu’il faut refuser l’accès des IAg aux meilleures des œuvres de l’esprit, parce que leur qualité permet ensuite aux chatbots de les concurrencer plus directement. Au moins les auteurs auront-ils obtenu une première victoire à la suite de la décision du juge Alsup : en effet, le 5 septembre 2025, un accord à l’amiable en justice a été révélé dans lequel Anthropic s’engage à verser 1,5 milliard de dollars de dédommagement aux auteurs de livres sur lesquels son IAg s’est entraînée, soit 500 000 auteurs concernés. Le montant pourra être revu à la hausse si la liste définitive des ouvrages utilisés dépasse ce seuil. Dans ce cas, une rémunération de 3 000 dollars supplémentaires par ouvrage est prévue.
La deuxième décision de justice concerne Meta. Elle est moins importante, même si elle est favorable à Meta et à son LLM LlaMa. Pour le juge Vince Chhabria, les plaignants – treize auteurs, dont Sarah Silverman, Richard Kadrey et Ta-Nehisi Coates – n’ont pas suffisamment prouvé que l’entraînement de LlaMa sur leurs ouvrages allait au-delà d’un usage raisonnable, ni que le développement des IAg leur portait préjudice jusqu’à provoquer une baisse des ventes de leurs livres. Ainsi, le juge réitère le principe du fair use pour l’entraînement des IAg, ce qui suppose de ne pas recueillir le consentement préalable des auteurs comme le demandaient les plaignants, mais il laisse la porte ouverte à un droit à la rémunération. Le juge a effectivement considéré que des IAg qui coûtent des milliards de dollars et doivent en rapporter encore plus devraient conduire les entreprises qui les développent à trouver les moyens de rémunérer les auteurs dont les œuvres servent à leur entraînement. Dans le cas contraire, l’absence de rémunération est perçue par le juge américain comme illégale. Les plaignants sont donc invités à mieux constituer leur dossier, la demande d’abandon de la plainte par Meta ayant été rejetée, d’autant que Meta a reconnu avoir utilisé la base de données Books3 qui réunit 200 000 livres piratés. Mais il faudra plusieurs jugements pour que la question soit tranchée sur le fond, d’autres plaintes étant en cours.
L’autorégulation du secteur n’est pas à exclure non plus. Avant Anthropic, d’autres avaient déjà emprunté la voie des accords à l’amiable. Alors qu’il est visé par une plainte pour avoir utilisé des bases de données de livres piratées, Microsoft a ainsi signé un accord avec l’éditeur HarperCollins en novembre 2024 pour utiliser son catalogue de livres de non-fiction à des fins d’entraînement. En échange, les auteurs qui donnent leur autorisation se verront proposer une somme forfaitaire de 2 500 dollars par livre édité.
Sources :
- Creamer Ella, « HarperCollins to allow tech firms to use its books to train AI models », theguardian.com, November 19 2024.
- Milmo Dan, « Anthropic did not breach copyright when training AI on books without permission, court rules », theguardian.com, June 25 2025.
- Vanian Jonathan, « Meta wins AI copyright case, but judge says others could bring lawsuits », cnbc.com, June 25 2025.
- Boitel Julien, « Aux États-Unis, un juge valide l’entraînement d’une IA avec des livres sans autorisation », Les Échos, 26 juin 2025.
- Lentschner Karen, « La justice ne tranche pas le conflit entre IA et monde du livre », Le Figaro, 27 juin 2025.
- Goulard Hortense, Richaud Nicolas, « Aux États-Unis, la bataille entre les auteurs et les géants de l’IA s’intensifie », Les Échos, 30 juin 2025.
- Urbain Thomas, « Anthropic va verser 1,5 milliard de dollars », AFP, La Presse, 5 septembre 2025.