Getting your Trinity Audio player ready...
|
Sommaire Show

L’intelligence artificielle continue de faire des vagues, mais pas toujours pour les bonnes raisons. Anthropic, la société derrière l’agent conversationnel Claude, fait face à un recours collectif intenté par trois auteurs qui accusent l’entreprise d’avoir violé leurs droits d’auteur en utilisant illégalement leurs œuvres pour entraîner ses modèles d’IA. Ce procès, déposé le 19 août 2024 devant un tribunal fédéral de Californie, pourrait avoir des répercussions significatives sur l’ensemble de l’industrie de l’intelligence artificielle.
Une accusation de « vol à grande échelle »
Les plaignants, Andrea Bartz, Charles Graeber et Kirk Wallace Johnson, soutiennent qu’Anthropic a construit une entreprise valorisée à plusieurs milliards de dollars en exploitant des œuvres protégées par le droit d’auteur, sans autorisation ni compensation. Ils affirment que la société a sciemment utilisé des versions piratées de leurs livres pour entraîner son IA Claude, une alternative directe à ChatGPT d’OpenAI.
L’accusation repose sur l’utilisation de « The Pile », une base de données open source contenant des textes issus de diverses sources, dont un sous-ensemble appelé Books3. Cette collection de données, qui comprendrait environ 37 Go de textes piratés, a été utilisée pour former plusieurs modèles de langage, dont Claude. Les auteurs reprochent à Anthropic d’avoir délibérément choisi de ne pas obtenir les licences nécessaires pour économiser sur les coûts de développement, ce qui constitue selon eux un « vol à grande échelle ».
Un contexte de tension croissante entre IA et droits d’auteur
Ce procès n’est pas un cas isolé. Ces dernières années, de nombreuses actions en justice ont été intentées contre des entreprises d’IA pour des raisons similaires. OpenAI, Meta, Stability AI, et d’autres géants du secteur ont tous été accusés d’utiliser du contenu protégé par des droits d’auteur sans autorisation pour entraîner leurs modèles d’IA. Dans la majorité de ces cas, les plaignants réclament non seulement des dommages et intérêts, mais aussi des injonctions pour empêcher l’utilisation future de leur travail sans compensation.
La situation d’Anthropic est d’autant plus ironique que l’entreprise s’est toujours positionnée comme étant plus éthique que ses concurrents, avec un fort accent sur la sécurité des modèles d’IA générative. Cependant, les plaignants soutiennent que l’utilisation de textes piratés pour entraîner Claude contredit ces valeurs proclamées, et tourne en dérision les objectifs « nobles » de l’entreprise.
Les implications potentielles du procès
L’issue de ce procès pourrait avoir des répercussions majeures sur l’industrie de l’IA. Si les plaignants obtiennent gain de cause, cela pourrait forcer les entreprises de technologie à repenser la manière dont elles collectent et utilisent les données pour entraîner leurs modèles. Une victoire des auteurs pourrait également encourager d’autres créateurs à intenter des actions en justice, augmentant ainsi la pression sur les entreprises pour qu’elles respectent les droits de propriété intellectuelle.
Il est également possible que ce procès aboutisse à la mise en place de nouvelles régulations ou à une redéfinition du cadre juridique entourant l’utilisation de données pour l’entraînement des IA. Cela pourrait inclure des accords de licence plus stricts et la création de nouvelles protections pour les auteurs et autres créateurs de contenu.
Une question d’éthique et de respect des créateurs
Au-delà des aspects juridiques, ce procès soulève des questions éthiques fondamentales sur la manière dont les entreprises d’IA traitent le travail des créateurs. Le recours à des données piratées pour entraîner des modèles d’IA pose un problème de fond : l’IA doit-elle être développée au détriment des droits des créateurs ? Pour les plaignants, la réponse est clairement non. Ils estiment que les créateurs méritent une compensation équitable pour l’utilisation de leurs œuvres, conformément aux principes fondamentaux de la propriété intellectuelle.
Le cas d’Anthropic met en lumière le besoin urgent de trouver un équilibre entre l’innovation technologique et le respect des droits des créateurs. L’industrie de l’IA est confrontée à un dilemme : comment continuer à innover tout en respectant les lois sur le droit d’auteur et en traitant les créateurs de manière juste ?
Conclusion
Le procès intenté contre Anthropic par trois auteurs pour violation de droits d’auteur est un nouvel épisode dans la série de tensions croissantes entre l’industrie de l’IA et les détenteurs de droits. Ce cas pourrait bien être déterminant pour l’avenir des pratiques de l’industrie, en forçant les entreprises à adopter des méthodes d’entraînement des IA plus transparentes et respectueuses des droits de propriété intellectuelle. Quelle que soit l’issue, il est clair que la relation entre IA et droits d’auteur est à un tournant, et que des changements majeurs pourraient être à l’horizon.