Salut les amis, et bienvenue dans la e-newsletter régulière sur l’IA de TechCrunch.
Cette semaine, dans le domaine de l’IA, les labels de musique ont accusé deux startups développant des générateurs de chansons alimentés par l’IA, Udio et Suno, de violation du droit d’auteur.
La RIAA, l’organisation professionnelle représentant l’industrie de l’enregistrement musical aux États-Unis, a annoncé lundi des poursuites contre les sociétés, intentées par Sony Music Leisure, Common Music Group, Warner Data et d’autres. Les poursuites affirment qu’Udio et Suno ont formé les modèles d’IA générative qui sous-tendent leurs plates-formes sur la musique des labels sans indemniser ces labels – et demandent 150 000 $ de compensation par œuvre prétendument violée.
“Les productions musicales synthétiques pourraient saturer le marché avec du contenu généré par des machines qui concurrencerait directement, dévaloriserait et finalement étoufferait les enregistrements sonores authentiques sur lesquels le service est construit”, affirment les labels dans leurs plaintes.
Les poursuites s’ajoutent au nombre croissant de litiges contre les fournisseurs d’IA générative, y compris contre des gros calibres comme OpenAI, arguant à peu près de la même selected : que les entreprises qui forment sur des œuvres protégées par le droit d’auteur doivent payer les titulaires de droits ou au moins les créditer – et leur permettre de se retirer de la formation. s’ils le souhaitent. Les fournisseurs revendiquent depuis longtemps des protections contre l’utilisation équitable, affirmant que les données protégées par le droit d’auteur sur lesquelles ils s’entraînent sont publiques et que leurs modèles créent des œuvres transformatrices et non plagiat.
Alors, remark les tribunaux statueront-ils ? Telle est, cher lecteur, la query à un milliard de {dollars} – et elle prendra du temps à être résolue.
On pourrait penser que ce serait un jeu d’enfant pour les détenteurs de droits d’auteur, avec le montage preuve que les modèles d’IA générative peuvent régurgiter presque (accent sur presque) textuellement les œuvres d’artwork, les livres, les chansons, and so on. protégés par le droit d’auteur sur lesquels ils sont formés. Mais il y a un résultat dans lequel les fournisseurs d’IA générative s’en sortent indemnes – et doivent à Google leur bonne fortune pour avoir créé un précédent conséquent.
Il y a plus de dix ans, Google a commencé à numériser des thousands and thousands de livres pour constituer une archive pour Google Books, une sorte de moteur de recherche de contenu littéraire. Les auteurs et les éditeurs ont poursuivi Google pour cette pratique, affirmant que la copy de leur propriété intellectuelle en ligne équivalait à une contrefaçon. Mais ils ont perdu. En appel, un tribunal a estimé que la copie de Google Books avait un « objectif de transformation très convaincant ».
Les tribunaux pourraient décider que l’IA générative a également un « objectif de transformation très convaincant » si les plaignants ne parviennent pas à démontrer que les modèles des fournisseurs plagient effectivement à grande échelle. Ou, comme Alex Reisner de The Atlantic suggest, il se peut qu’il n’y ait pas une seule décision sur la query de savoir si la technologie de l’IA générative dans son ensemble constitue une violation. Les juges pourraient bien déterminer les gagnants modèle par modèle, au cas par cas, en tenant compte de chaque résultat généré.
Mon collègue Devin Coldewey l’a dit succinctement Dans un article paru cette semaine, on peut lire : « Toutes les entreprises d’IA ne laissent pas leurs empreintes digitales sur la scène du crime de manière aussi généreuse. » Au fur et à mesure que le procès se déroule, nous pouvons être sûrs que les fournisseurs d’IA dont les modèles commerciaux dépendent des résultats prennent des notes détaillées.
Nouvelles
Mode vocal avancé retardé : OpenAI a retardé le mode vocal avancé, l’expérience conversationnelle étrangement réaliste et presque en temps réel pour sa plateforme de chatbot alimentée par l’IA. ChatGPT. Mais il n’y a pas de travailleurs inactifs chez OpenAI, qui a également acquis cette semaine une startup de collaboration à distance Multi et libéré un consumer macOS pour tous les utilisateurs de ChatGPT.
La stabilité constitue une bouée de sauvetage : Au bord du précipice financier, Stability AI, le créateur du modèle ouvert de génération d’photographs Steady Diffusion, a été sauvé par un groupe d’investisseurs comprenant le fondateur de Napster, Sean Parker, et l’ancien PDG de Google, Eric Schmidt. Ses dettes annulées, la société a également nommé un nouveau PDG, l’ancien directeur de Weta Digital, Prem Akkaraju, dans le cadre d’un vaste effort visant à reprendre pied dans le paysage ultra-compétitif de l’IA.
Gemini arrive sur Gmail : Google déploie un nouveau panneau latéral d’IA basé sur Gemini dans Gmail qui peut vous aider à rédiger des e-mails et à résumer les fils de dialogue. Le même panneau latéral fait son chemin vers le reste de la suite d’functions de productivité du géant de la recherche : Docs, Sheets, Slides et Drive.
Un conservateur formidable : Le cofondateur de Goodreads, Otis Chandler, a lancé Smashing, une utility de recommandation de contenu alimentée par l’IA et la communauté, dans le however d’aider les utilisateurs à se connecter à leurs intérêts en faisant apparaître les joyaux cachés d’Web. Smashing suggest des résumés d’actualités, des extraits clés et des citations intéressantes, identifiant automatiquement les sujets et les fils de dialogue d’intérêt pour les utilisateurs individuels et encourageant les utilisateurs à aimer, enregistrer et commenter les articles.
Apple dit non à l’IA de Meta : Des jours après Le journal de Wall Road a rapporté qu’Apple et Meta étaient en pourparlers pour intégrer les modèles d’IA de ce dernier, Mark Gurman de Bloomberg a déclaré que le fabricant d’iPhone n’envisageait pas une telle démarche. Apple a abandonné l’idée d’installer l’IA de Meta sur les iPhones en raison de problèmes de confidentialité, a déclaré Bloomberg – et de l’optique d’un partenariat avec un réseau social dont les politiques de confidentialité sont souvent critiquées.
Doc de recherche de la semaine
Méfiez-vous des chatbots d’affect russe. Ils pourraient être juste sous votre nez.
Plus tôt ce mois-ci, Axios a souligné un étude de NewsGuard, l’organisation de lutte contre la désinformation, qui a découvert que les principaux chatbots d’IA régurgitent des extraits de campagnes de propagande russe.
NewsGuard a saisi 10 chatbots de premier plan – dont ChatGPT d’OpenAI, Claude d’Anthropic et Gemini de Google – plusieurs douzaines de questions sur des récits connus pour avoir été créés par des propagandistes russes, en particulier le fugitif américain John Mark Dougan. Selon l’entreprise, les chatbots ont répondu par la désinformation dans 32 % des cas, en présentant comme des faits de fake rapports rédigés en russe.
L’étude illustre la surveillance accrue exercée sur les fournisseurs d’IA à l’approche de la saison électorale aux États-Unis. Microsoft, OpenAI, Google et un sure nombre d’autres grandes sociétés d’IA convenu lors de la Conférence de Munich sur la sécurité en février pour prendre des mesures visant à freiner la propagation des deepfakes et de la désinformation liée aux élections. Mais les abus sur les plateformes restent monnaie courante.
« Ce rapport démontre clairement pourquoi le secteur doit accorder une consideration particulière aux actualités et aux informations », a déclaré Steven Brill, co-PDG de NewsGuard, à Axios. « Pour l’immediate, ne faites pas confiance aux réponses fournies par la plupart de ces chatbots sur les questions liées à l’actualité, en particulier les questions controversées. »
Modèle de la semaine
Des chercheurs du Laboratoire d’informatique et d’intelligence artificielle (CSAIL) du MIT affirment avoir développé un modèle, DenseAV, succesful d’apprendre une langue en prédisant ce qu’il voit à partir de ce qu’il entend – et vice versa.
Les chercheurs, dirigés par Mark Hamilton, doctorant en génie électrique et informatique au MIT, ont été inspirés pour créer DenseAV par les moyens non verbaux de communication des animaux. “Nous avons pensé que nous devions peut-être utiliser l’audio et la vidéo pour apprendre une langue”, a-t-il déclaré au MIT CSAIL. bureau de presse. “Y a-t-il un moyen de laisser un algorithme regarder la télévision toute la journée et, à partir de là, comprendre de quoi nous parlons ?”
DenseAV ne traite que deux varieties de données – audio et visuelles – et le fait séparément, « apprenant » en comparant des paires de signaux audio et visuels pour trouver quels signaux correspondent et lesquels ne correspondent pas. Formé sur un ensemble de données de 2 thousands and thousands de vidéos YouTube, DenseAV est succesful d’identifier des objets à partir de leurs noms et de leurs sons en recherchant, puis en agrégeant toutes les correspondances possibles entre un clip audio et les pixels d’une picture.
Lorsque DenseAV écoute un chien aboyer, par exemple, une partie du modèle se concentre sur le langage, comme le mot « chien », tandis qu’une autre partie se concentre sur les aboiements. Les chercheurs affirment que cela montre que DenseAV peut non seulement apprendre la signification des mots et l’emplacement des sons, mais qu’il peut également apprendre à distinguer ces connexions « intermodales ».
Pour l’avenir, l’équipe vise à créer des systèmes capables d’apprendre à partir d’énormes quantités de données vidéo ou audio uniquement – et à étendre leur travail avec des modèles plus grands, éventuellement intégrés aux connaissances des modèles de compréhension du langage pour améliorer les performances.
Prendre sac
Personne ne peut accuser Mira Murati, directrice approach d’OpenAI, de ne pas être toujours franc.
S’exprimant lors d’une soirée au coin du feu à la College of Engineering de Dartmouth, Murati a admis que, oui, l’IA générative éliminerait certains emplois créatifs – mais a suggéré que ces emplois « n’auraient peut-être pas dû exister en premier lieu ».
«Je m’attends certainement à ce que beaucoup d’emplois changent, certains emplois soient perdus, d’autres soient gagnés», a-t-elle poursuivi. “La vérité est que nous ne comprenons pas encore vraiment l’impression que l’IA va avoir sur l’emploi.”
Les créatifs n’ont pas apprécié les remarques de Murati – et ce n’est pas étonnant. Mis à half la formulation apathique, OpenAI, comme Udio et Suno susmentionnés, fait face à des litiges, des critiques et des régulateurs alléguant qu’il profite des œuvres des artistes sans les rémunérer.
OpenAI a récemment promis de publier outils pour permettre aux créateurs un plus grand contrôle sur la manière dont leurs œuvres sont utilisées dans ses produits, et il proceed de signer des accords de licence avec les détenteurs de droits d’auteur et les éditeurs. Mais l’entreprise ne fait pas vraiment pression en faveur d’un revenu de base universel – ni ne mène aucun effort significatif pour recycler ou améliorer les compétences de la main-d’œuvre sur laquelle sa technologie a un impression.
Une récente morceau dans le Wall Road Journal, on constate que les emplois contractuels nécessitant des bases de rédaction, de codage et de traduction sont en practice de disparaître. Et un étude Une étude publiée en novembre dernier montre que, suite au lancement de ChatGPT d’OpenAI, les freelances ont obtenu moins de travail et ont gagné beaucoup moins.
La mission déclarée d’OpenAI, au moins jusqu’à ce qu’elle devienne un entreprise à however lucratif, est de « garantir que l’intelligence artificielle générale (AGI) – des systèmes d’IA généralement plus intelligents que les humains – profite à l’ensemble de l’humanité ». Il n’a pas atteint l’AGI. Mais ne serait-il pas louable si OpenAI, fidèle à son souci de « bénéficier à toute l’humanité », mettait de côté ne serait-ce qu’une petite fraction de ses revenus (3,4 milliards de {dollars}+) pour les paiements aux créateurs afin qu’ils ne soient pas entraînés dans le flot de l’IA générative ?
Je peux rêver, n’est-ce pas ?