Une patate chaude : Pour la deuxième fois cette semaine, Stability AI, créateur de l’outil de génération d’art Stable Diffusion, est poursuivi pour violation présumée du droit d’auteur pour avoir récupéré du contenu pour former ses systèmes. Cette fois, le fournisseur d’images/vidéos/musique Getty Images a « engagé une procédure judiciaire devant la Haute Cour de justice de Londres » contre Stability AI.

Getty Images a déclaré dans un déclaration que Stability AI a illégalement copié et traité des millions d’images protégées par le droit d’auteur « en l’absence d’une licence au profit des intérêts commerciaux de Stability AI et au détriment des créateurs de contenu ».

Le PDG de Getty Images, Craig Peters, a déclaré Le bord que la société avait informé Stability AI de son litige à venir au Royaume-Uni. On ne sait pas si un cas américain suivra.

« L’entreprise [Stability AI] n’a fait aucune démarche auprès de Getty Images pour utiliser notre matériel ou celui de nos contributeurs, nous prenons donc des mesures pour protéger nos droits de propriété intellectuelle et ceux de nos contributeurs », a déclaré Peters.

Découvrez comment exécuter une diffusion stable sur votre PC pour générer des images AI

Il semble que les avocats de Stability AI auront encore quelques mois, voire des années, devant eux. Nous avons appris hier que trois artistes avaient lancé un recours collectif contre la société, Midjourney (un autre générateur d’art IA) et le site de portefeuille DeviantArt pour avoir prétendument violé les lois sur le droit d’auteur. L’avocat Matthew Butterick, qui a déposé l’affaire aux côtés du spécialiste de l’antitrust et des recours collectifs Joseph Saveri Law Firm, a déclaré que les créateurs craignaient que les systèmes d’IA soient formés sur des œuvres protégées par le droit d’auteur sans consentement, crédit ou compensation.

Les questions sur les matériaux sur lesquels les IA génératives sont formées côtoient les craintes qu’elles ne remplacent les emplois humains. Cela s’avère être un domaine trouble, légalement, la plupart des créateurs des systèmes affirmant qu’une telle formation relève de la doctrine de l’utilisation équitable aux États-Unis ou de l’utilisation équitable au Royaume-Uni. Peters dit que Getty Images ne pense pas que ce soit une hypothèse exacte, sans surprise.

Quelque chose qui pourrait soutenir le cas de Getty Images est une analyse indépendante de l’ensemble de données de Stability AI qui a révélé qu’une grande partie provenait de Getty Images et d’autres sites d’images de stock. De plus, l’IA recrée souvent le filigrane de Getty Images dans ses images générées.

Peters a dit Le bord que Getty Images ne s’intéresse pas à une compensation financière ou à l’arrêt du développement de ces IA mais à trouver des moyens de construire un modèle qui respecte la propriété intellectuelle. Stability AI indique que la prochaine version de Stable Diffusion permettra aux artistes de ne pas inclure leur travail dans les ensembles de données de formation, mais cela pourrait ne pas suffire à apaiser les créateurs originaux et les entreprises comme Getty Images.

Ajoutant à la controverse est le récent nouvelles qu’une artiste IA basée en Californie a découvert que des photos de dossiers médicaux privés prises par son médecin en 2013 faisaient partie de l’ensemble d’images LAION-5B. L’ensemble de données, une collection de 5 milliards d’images et de légendes descriptives associées créées par un organisme de recherche à but non lucratif basé en Allemagne, est utilisé pour entraîner la diffusion stable et d’autres IA génératives. Les artistes peuvent vérifier si leur travail fait partie de LAION-5B sur Ai-je été formé.