← AI War Room
Souverainete

Rolling Stones vs Claude : BMG attaque Anthropic pour avoir utilisé des paroles sous copyright pour entraîner son IA

Tech4B2B · · 3 min (mis à jour le )
Illustration : Rolling Stones vs Claude : BMG attaque Anthropic pour avoir utilisé des paroles sous copyright pour entraîner son IA
  • Sujet: Rolling Stones vs Claude : BMG attaque Anthropic pour avoir utilisé des paroles sous copyright pour entraîner son IA
  • Date:
BMG Rights Management a poursuivi Anthropic en justice dans un tribunal fédéral de Californie pour avoir prétendument utilisé ses paroles de chansons sous copyright pour entraîner les grands modèles de langage alimentant son chatbot Claude. BMG cite des œuvres des Rolling Stones, Bruno Mars, Ariana Grande et d'autres artistes majeurs, invoquant 493 exemples d'infractions au copyright. La plainte arrive quelques mois après qu'Anthropic a réglé une action similaire intentée par un groupe d'auteurs pour 1,5 milliard de dollars. Cette fois, c'est l'industrie musicale qui se présente — avec un catalogue mondial, un avocat affûté, et une formule choc : Anthropic scrape des sites torrents illégaux tout en se revendiquant "broadly ethical".

BMG Rights Management, filiale du groupe allemand Bertelsmann, est l'un des trois majors mondiaux de l'édition musicale. Son catalogue comprend des millions d'œuvres — des Rolling Stones à Ariana Grande en passant par Justin Bieber et Bruno Mars. La plainte allègue qu'Anthropic a utilisé des outils automatisés de scraping pour copier du texte depuis des sites web publics et des bibliothèques pirates illégales en ligne dès sa fondation.

La preuve avancée par BMG n'est pas abstraite. Dans la plainte de 47 pages, BMG argue qu'Anthropic a clairement entraîné ses modèles sur de la musique gérée par BMG parce que Claude fournit volontiers aux utilisateurs la totalité ou des portions significatives de chansons à succès — notamment "Uptown Funk" de Bruno Mars, "You Can't Always Get What You Want" des Rolling Stones, et "What A Wonderful World" de Louis Armstrong. Autrement dit : la preuve de l'infraction est dans le comportement du modèle lui-même.


Cette affaire se joue sur trois niveaux simultanément.

Le niveau factuel : des torrents comme source de données

L'accusation la plus lourde ne porte pas sur le scraping de sites légaux — c'est là où le débat fair use reste ouvert. Elle porte sur quelque chose de bien plus concret : BMG accuse Anthropic d'avoir entraîné ses modèles IA sur des œuvres copyrightées provenant de sites torrents non autorisés. Ce n'est plus une question de "transformation" des données — c'est une question de vol de propriété intellectuelle à la source. Si BMG peut prouver ce point, l'argument fair use d'Anthropic s'effondre.

Le niveau juridique : la responsabilité secondaire

La plainte allègue qu'Anthropic facilite, encourage et tire profit de la violation du copyright par ses licenciés et utilisateurs de ses modèles Claude — invoquant une responsabilité contributive et vicarielle. C'est un angle juridique redoutable : si Claude reproduit des paroles à la demande des utilisateurs, Anthropic est co-responsable de chaque instance de reproduction.

Le niveau financier : l'exposition est astronomique

Les dommages statutaires pour violation de copyright sous le droit américain peuvent aller de quelques centaines de dollars jusqu'à 150 000 dollars par œuvre si le tribunal juge l'infraction volontaire. Avec 493 œuvres citées, l'exposition maximale théorique dépasse 73 millions de dollars — avant même de compter les infractions non citées dans la plainte initiale. Et ce n'est qu'un demandeur. Universal Music Group a une action similaire en cours depuis 2023.

Le timing et la provocation rhétorique

BMG cible explicitement le positionnement d'Anthropic en matière d'éthique IA : "Anthropic pourrait cesser sa conduite illégale à tout moment. Pourtant, malgré les multiples procès et une demande écrite spécifique de BMG d'arrêter le comportement objet de ce procès, Anthropic a refusé — se moquant de ses principes fondateurs déclarés de construire une IA 'broadly ethical'." C'est une attaque au cœur de l'identité de marque d'Anthropic, pas seulement une action en justice.

Implications

Pour Anthropic : Anthropic n'a pas répondu à la plainte de BMG, ni à un courrier de mise en demeure envoyé en décembre 2025. Avec le précédent du règlement auteurs à 1,5Md$, le marché des droits d'entraînement IA est en train de se constituer de force — par la jurisprudence plutôt que par la négociation. Chaque nouveau procès perdu ou réglé renforce le précédent pour le suivant.

Pour l'ensemble de l'industrie IA : La question centrale que ces procès vont trancher est simple : est-ce que l'entraînement d'un LLM sur des œuvres copyrightées constitue un fair use transformatif, ou une infraction directe ? Les tribunaux américains n'ont pas encore rendu de décision définitive sur ce point. Quand ce sera le cas — probablement en 2026-2027 — cela redéfinira le coût de formation des modèles pour toute l'industrie.

Pour les DSI : Les entreprises qui utilisent Claude, ChatGPT ou d'autres LLMs dans leurs workflows devraient surveiller l'évolution de la responsabilité secondaire. Si les tribunaux confirment qu'un fournisseur IA est responsable des reproductions copyright effectuées par ses utilisateurs, les clauses des contrats d'utilisation vont radicalement changer — avec des implications sur les indemnités et les garanties de conformité.

Conclusion

BMG contre Anthropic est plus qu'un procès en droits d'auteur. C'est le moment où l'industrie créative mondiale dit à l'industrie IA : les règles s'appliquent à vous aussi, "broadly ethical" ou pas. La force du dossier BMG réside dans sa double attaque — source illégale (torrents) ET comportement du modèle (reproduction de paroles à la demande). Si les deux sont prouvés, le fair use ne tient pas. À 12 mois : soit Anthropic règle (probablement), soit un tribunal fédéral rend la décision la plus structurante de l'histoire du droit de l'IA. Dans les deux cas, l'industrie ne sortira pas inchangée.

TL;DR

BMG poursuit Anthropic avec 493 infractions au copyright et une formule qui fait mal : votre IA "broadly ethical" scrape des sites torrents illégaux pour s'entraîner sur les Rolling Stones.

  • BMG cite 493 violations de copyright incluant des œuvres de Bruno Mars, Rolling Stones, Ariana Grande — avec la preuve ultime : Claude reproduit ces paroles quand on le lui demande.
  • L'accusation d'entraînement sur des sites torrents illégaux est la plus dangereuse pour Anthropic : elle court-circuite l'argument fair use.
  • Avec 150 000$ par œuvre en dommages maximaux et l'exposition cumulée de toutes les actions en cours (UMG, auteurs, BMG), le coût juridique du modèle économique actuel d'entraînement IA devient existentiellement significatif.

Questions fréquentes

Quelle est la différence entre cette affaire BMG et les précédents procès contre Anthropic ?

L\'action UMG/publishers de 2023 se concentre sur le droit d\'auteur musical de façon générale. Le règlement auteurs de 1,5Md$ portait sur des œuvres littéraires. L\'affaire BMG ajoute deux éléments nouveaux : la preuve comportementale directe (Claude reproduit les paroles quand on le lui demande) et l\'accusation de scraping de sites torrents illégaux — ce dernier point étant potentiellement le plus dommageable car il cible la méthode de collecte des données, pas seulement leur utilisation.

Comment Anthropic défend-il généralement ces accusations ?

Anthropic, comme la plupart des entreprises IA, invoque le fair use — la doctrine juridique américaine permettant l\'utilisation limitée d\'œuvres protégées à des fins transformatives, éducatives ou analytiques. L\'argument : entraîner un modèle sur du texte ne reproduit pas l\'œuvre, il en extrait des patterns statistiques. Ce raisonnement n\'a pas encore été jugé définitivement par les tribunaux américains, et son applicabilité aux LLMs fait l\'objet de débats juridiques intenses.

Les entreprises utilisant Claude sont-elles exposées légalement par cet affaire ?

À ce stade, non directement. La responsabilité secondaire alléguée par BMG vise Anthropic en tant que facilitateur des reproductions par ses utilisateurs — pas les utilisateurs eux-mêmes. Mais si Anthropic perd sur ce point, les contrats d\'utilisation de Claude pourraient être modifiés pour limiter les clauses d\'indemnisation des utilisateurs. Les DSI devraient surveiller l\'évolution des conditions générales d\'utilisation dans les 12 prochains mois.

Le brief tech qui compte
Chaque matin à 7h, les 5 signaux tech B2B à ne pas manquer.