Quand l’intelligence artificielle défie les lois du droit d’auteur : l’affaire Perplexity et la ligne rouge du “fair use”

Apple envisage de prendre une participation dans Perplexity.ai, une startup d’intelligence artificielle au cœur d’une polémique majeure sur l’usage de contenus protégés par le droit d’auteur pour l’entraînement de modèles IA. Ce choix stratégique intervient dans un contexte tendu : une décision de justice rendue récemment aux États-Unis a jugé légal le fait d’entraîner une IA sur des œuvres protégées, tant que l’accès à ces œuvres n’est pas acquis de manière illégale. Pour les défenseurs du droit d’auteur, cette interprétation du « fair use » pourrait ouvrir la porte à une exploitation massive, sans compensation des ayants droit.

Perplexity.ai se défend en affirmant que son outil ne fait que résumer l’information et agit comme un moteur de recherche augmenté. Mais la BBC, ou le New York Times dénoncent la reproduction parfois mot pour mot de leurs articles. Ces médias accusent la plateforme de piller leur travail sans accord ni rémunération. Une plainte a été déposée en octobre 2024, dénonçant une violation manifeste des droits d’auteur. Le juge californien Vince Chhabria, dans une autre affaire, a certes rejeté certaines revendications des auteurs, mais a reconnu que « des extraits d’ouvrages apparaissant dans les sorties des IA pourraient ne pas être couverts par le fair use ».

La tension ne réside pas seulement dans l’usage des données pour entraîner les modèles, mais aussi dans les résultats qu’ils produisent. Si l’IA régurgite des contenus quasiment identiques à ceux sur lesquels elle s’est formée, cela revient à reproduire une œuvre sans autorisation. Or, ces contenus sont ensuite utilisés pour des produits commerciaux, ce qui affaiblit le modèle économique des médias et des créateurs. Selon The Verge, cette jurisprudence « sème le doute sur les protections que les auteurs peuvent attendre dans l’univers de l’IA générative ».

Apple, en s’approchant de Perplexity, prend donc un risque non négligeable en termes d’image et de conformité réglementaire. L’entreprise devra intégrer des clauses strictes sur le traitement des contenus protégés si elle veut éviter d’être entraînée dans un litige similaire à celui qu’affrontent OpenAI et Microsoft. De plus, une telle alliance pourrait renforcer l’idée que les grands acteurs technologiques ne cherchent pas à protéger les créateurs, mais à exploiter leurs œuvres pour alimenter des modèles devenus gigantesques.

Ce débat révèle aussi une faille plus large dans la législation actuelle. L’intelligence artificielle évolue bien plus vite que les lois sur la propriété intellectuelle. L’absence de mécanismes de licence adaptés, de traçabilité des données d’entraînement ou de rémunération automatique rend le système actuel obsolète. Il est donc urgent d’imaginer une régulation internationale, capable d’harmoniser les usages, de protéger les œuvres et de garantir une juste rémunération aux créateurs.

Dans ce contexte, les entreprises qui exploitent ou investissent dans l’IA doivent adapter leurs pratiques contractuelles. Cela signifie :

– introduire des clauses précises sur la provenance des données utilisées pour l’entraînement ;
– mettre en place des audits réguliers pour garantir l’absence de contenus non autorisés dans les modèles ;
– définir des règles de supervision humaine des résultats produits ;
– prévoir une indemnisation des créateurs lorsque leurs œuvres sont utilisées à des fins commerciales via l’IA.

Tant que ces garde-fous ne sont pas mis en place, la zone grise juridique actuelle menace de se transformer en crise ouverte entre les industries culturelles et les géants du numérique. La jurisprudence américaine, en validant l’entraînement à grande échelle, sans trancher sur l’exploitation des résultats, a allumé une mèche qui pourrait faire exploser le modèle de l’intelligence artificielle générative.

Pour garantir un avenir durable à cette technologie, un équilibre devra être trouvé entre innovation technique et respect des droits fondamentaux des auteurs. C’est à ce prix que l’IA pourra être perçue non comme un prédateur de la création, mais comme un outil d’amplification encadrée et éthique de la connaissance.