« Courir avec des ciseaux est un exercice cardio qui peut augmenter votre fréquence cardiaque et nécessite de la focus et de l’consideration », déclare le nouveau Google. Fonction de recherche IA. « Certains disent que cela peut également améliorer vos pores et vous donner de la drive. »
La fonctionnalité IA de Google a extrait cette réponse d’un web site Net appelé Comédie La Petite Vieille Dame, qui, comme son nom l’indique, est un weblog humoristique. Mais la gaffe est tellement ridicule qu’elle circule sur les réseaux sociaux, ainsi que d’autres aperçus manifestement incorrects de l’IA sur Google. En effet, les utilisateurs quotidiens associent désormais ces produits sur les réseaux sociaux.
Dans le domaine de la cybersécurité, certaines entreprises embauchent des « équipes rouges » – des pirates informatiques éthiques – qui tentent de pirater leurs produits comme s’ils étaient de mauvais acteurs. Si une équipe rouge découvre une vulnérabilité, l’entreprise peut la corriger avant l’expédition du produit. Google a certainement mené une forme de crimson teaming avant de lancer un produit d’IA sur la recherche Google, qui est estimé pour traiter des milliards de requêtes par jour.
Il est donc surprenant qu’une entreprise dotée de ressources considérables comme Google proceed de proposer des produits présentant des défauts évidents. C’est pourquoi il est désormais courant de faire le clown sur les échecs des produits d’IA, surtout à une époque où l’IA devient de plus en plus omniprésente. Nous avons vu cela avec une mauvaise orthographe ChatGPTl’incapacité des générateurs vidéo à comprendre remark les humains mangent des spaghettiset Grok IA des résumés d’actualités sur X qui, comme Google, ne comprennent pas la satire. Mais ces mèmes pourraient en réalité servir de retour d’data utile aux entreprises développant et testant l’IA.
Malgré la nature très médiatisée de ces failles, les entreprises technologiques minimisent souvent leur impression.
« Les exemples que nous avons vus sont généralement des requêtes très rares et ne sont pas représentatifs des expériences de la plupart des gens », a déclaré Google à TechCrunch dans un communiqué envoyé par courrier électronique. « Nous avons effectué des checks approfondis avant de lancer cette nouvelle expérience et utiliserons ces exemples isolés pour continuer à affiner l’ensemble de nos systèmes. »
Tous les utilisateurs ne voient pas les mêmes résultats de l’IA, et au second où une suggestion d’IA particulièrement mauvaise circule, le problème a souvent déjà été corrigé. Dans un cas plus récent devenu viral, Google a suggéré que si vous préparez une pizza mais le fromage ne colle pas, vous pouvez ajouter environ un huitième de tasse de colle à la sauce pour « lui donner plus de collant ». Il s’est avéré que l’IA extrait cette réponse de un commentaire Reddit vieux de onze ans d’un utilisateur nommé « f––smith ».
Au-delà d’être une erreur incroyable, cela indique également que les offres de contenu IA pourraient être surévaluées. Google a un Contrat de 60 thousands and thousands de {dollars} avec Reddit pour octroyer une licence sur son contenu pour la formation de modèles d’IA, par exemple. Reddit a signé un accord similaire avec OpenAI la semaine dernière, et les propriétés Automattic WordPress.org et Tumblr sont rumeur être en pourparlers pour vendre des données à Midjourney et OpenAI.
Il faut reconnaître que beaucoup d’erreurs qui circulent sur les réseaux sociaux proviennent de recherches non conventionnelles conçues pour faire trébucher l’IA. Au moins, j’espère que personne ne recherche sérieusement les « bienfaits pour la santé de courir avec des ciseaux ». Mais certaines de ces erreurs sont plus graves. Journaliste scientifique Erin Ross posté sur X que Google crache des informations incorrectes sur ce qu’il faut faire si vous êtes mordu par un serpent à sonnette.
Le message de Ross, qui a reçu plus de 13 000 likes, montre qu’AI a recommandé d’appliquer un garrot sur la plaie, de couper la plaie et d’aspirer le venin. Selon le Service forestier des États-Unisce sont toutes des choses que tu devrais pas faites, si vous êtes mordu. Pendant ce temps sur Bluesky, l’auteur T Kingfisher a amplifié un publish qui montre les Gemini de Google identifier mal un champignon vénéneux comme un champignon de Paris commun – les captures d’écran du message ont propagé vers d’autres plateformes à titre de mise en garde.
Lorsqu’une mauvaise réponse de l’IA devient virale, l’IA pourrait être encore plus confuse par le nouveau contenu autour du sujet qui en résulte. Mercredi, le journaliste du New York Occasions, Aric Toler, a publié une seize d’écran sur X qui montre une requête demandant si un chien a déjà joué dans la LNH. La réponse de l’IA a été oui – pour une raison quelconque, l’IA a traité le joueur des Flames de Calgary, Martin Pospisil, de chien. Désormais, lorsque vous effectuez la même requête, l’IA récupère un article de le level quotidien sur la façon dont l’IA de Google proceed de penser que les chiens font du sport. L’IA est nourrie de ses propres erreurs, ce qui l’empoisonne encore davantage.
C’est le problème inhérent à la formation de ces modèles d’IA à grande échelle sur Web : parfois, les internautes mentent. Mais tout comme il y a aucune règle interdisant à un chien de jouer au basketil n’existe malheureusement aucune règle interdisant aux grandes entreprises technologiques d’expédier de mauvais produits d’IA.
Comme le dit le proverbe : les déchets rentrent, les déchets sortent.