Les modifications apportées aux circumstances d’utilisation d’Adobe ont semé la confusion et l’indignation des utilisateurs à l’idée que leur travail – même des projets non publiés et en cours – puisse être utilisé pour former des modèles d’IA.
Utilisateurs de diverses purposes Adobe, notamment Photoshop et Substance Painter reçu une notification contextuelle mercredi en déclarant “nous pouvons accéder à votre contenu par des méthodes manuelles et automatisées, telles que l’examen du contenu”.
Le tweet a peut-être été supprimé
La part mise à jour (qui est entrée en vigueur le 17 février 2024) dans les circumstances d’utilisation d’Adobe dit:
« Nos systèmes automatisés peuvent analyser votre contenu et vos polices consumer Artistic Cloud (définies dans la part 3.10 (Polices consumer Artistic Cloud) ci-dessous) à l’aide de methods telles que l’apprentissage automatique afin d’améliorer nos companies et logiciels ainsi que l’expérience utilisateur. »
Le langage est imprecise. Mais la point out spécifique des « systèmes automatisés » et de l’utilisation de « l’apprentissage automatique afin d’améliorer nos companies et logiciels » a immédiatement fait craindre que le travail créatif des utilisateurs ne soit utilisé comme données de formation pour les outils d’IA d’Adobe.
Les nouveaux outils d’IA générative d’Adobe pour la vidéo sont absolument terrifiants
Outre l’implication selon laquelle tout contenu utilisateur servirait à alimenter des données de formation sans crédit ni compensation, il existe un problème spécifique de confidentialité pour les utilisateurs travaillant avec des informations confidentielles. “Je ne peux pas utiliser Photoshop à moins d’accepter que vous ayez un accès complet à tout ce que je crée avec, Y COMPRIS le travail NDA ?” posté artiste @SamSantala sur X.
Vitesse de la lumière écrasable
Le tweet a peut-être été supprimé
Sur un web page séparée qui explique remark Adobe utilise l’apprentissage automatique, Adobe indique qu’il n’utilise pas le contenu stocké localement sur votre appareil, mais uniquement le contenu stocké dans Artistic Cloud. Sinon, le contenu que les utilisateurs rendent public, tel que les contributions à Adobe Inventory, les soumissions à présenter sur Adobe Specific et à utiliser comme didacticiels dans Lightroom, sont utilisés pour « former les algorithmes (d’Adobe) et ainsi améliorer (ses) produits et companies ».
Le tweet a peut-être été supprimé
De telles utilisations de contenus publics sont déjà en place depuis Adobe a lancé son modèle d’IA Firefly, qui génère des photographs et alimente d’autres fonctionnalités d’IA telles que Generative Fill. Adobe présente Firefly comme étant commercialement sûr, mais a également déclaré que Firefly avait été formé sur des données du domaine public, qui incluent des photographs générées par l’IA de son concurrent Midjourney – un produit qui les artistes affirment était le résultat d’une violation du droit d’auteur.
Tout cela pour dire que la collecte de données de formation pour les modèles d’IA est un problème obscur qui rend difficile pour les créatifs et les entreprises de retracer le contenu protégé par le droit d’auteur et d’empêcher les œuvres non autorisées de s’infiltrer dans la formation des modèles. Et cela a miné Le déploiement par Adobe de fonctionnalités d’IA prétendument éthiques met en péril la confiance des purchasers.
Le tweet a peut-être été supprimé
Pour être clair, il n’a pas été démontré de manière concluante que le dernier changement de politique d’Adobe expose les utilisateurs à des atteintes à la vie privée, mais les utilisateurs sont naturellement préoccupés par la easy allusion que leur travail privé pourrait être accessible aux modèles d’IA d’Adobe. Les nouvelles circumstances d’utilisation ne font aucune point out explicite des données de formation Firefly ou AI, mais la mise à jour indique qu’il peut être nécessaire d’accéder au contenu de l’utilisateur pour “détecter, prévenir ou résoudre d’une autre manière des problèmes de fraude, de sécurité, juridiques ou methods”. et appliquer ses circumstances qui interdisent les contenus illégaux ou abusifs comme les contenus pédopornographiques. Cela peut signifier qu’Adobe cherche à surveiller l’accès au contenu des utilisateurs pour détecter des violations spécifiques.
Mais le langage utilisé, y compris des allusions générales à l’apprentissage automatique pour « améliorer » les outils Adobe, exploite des ideas dont les défenseurs de la vie privée se méfient à juste titre à un second très smart.
Mashable a contacté Adobe pour obtenir des éclaircissements et mettra à jour cette histoire si nous recevons une réponse.
Les sujets
Intelligence artificielle
Confidentialité