Google I/O a introduit un assistant IA succesful de voir et d’entendre le monde, tandis qu’OpenAI a mis sa model d’un Son-comme un chatbot dans un iPhone. La semaine prochaine, Microsoft hébergera Construct, où il y aura certainement une model de Copilot ou Cortana qui comprend les tableaux croisés dynamiques. Puis, quelques semaines plus tard, Apple organisera sa propre conférence des développeurs, et si l’on en croit le buzz, il parlera également d’intelligence artificielle. (On ne sait pas si Siri sera mentionné.)
L’IA est là ! Ce n’est plus conceptuel. Cela supprime des emplois, en crée quelques nouveaux et aide des thousands and thousands d’étudiants à éviter de faire leurs devoirs. Selon la plupart des grandes entreprises technologiques qui investissent dans l’IA, nous semblent être au début de l’expérience d’un de ces rares changements technologiques monumentaux. Pensez à la révolution industrielle ou à la création d’Web ou d’un ordinateur personnel. L’ensemble de la Silicon Valley – et des grandes applied sciences – s’efforce de prendre de grands modèles de langage et d’autres formes d’intelligence artificielle et de les déplacer des ordinateurs portables des chercheurs vers les téléphones et les ordinateurs des gens ordinaires. Idéalement, ils gagneront beaucoup d’argent ce faisant.
Mais je ne m’en soucie pas vraiment parce que Meta AI pense que j’ai une barbe.
Je veux être très clair : je suis une femme cis et je n’ai pas de barbe. Mais si je tape « montre-moi une picture d’Alex Cranz » dans la fenêtre d’invite, Meta AI renvoie inévitablement des pictures de très jolis hommes bruns et barbus. Je ne suis qu’une partie de ces choses !
La méta-IA n’est pas la seule à avoir du mal avec les détails de Le bordl’en-tête de Masthead. ChatGPT m’a dit hier que je ne travaillais pas chez Le bord. Les Gémeaux de Google ne savaient pas qui j’étais (juste), mais après m’avoir dit que Nilay Patel était l’un des fondateurs de Le bord, il s’est ensuite excusé et s’est corrigé en disant que ce n’était pas le cas. (Je vous guarantee qu’il l’était.)
L’IA proceed de faire des erreurs parce que ces ordinateurs sont stupides. Extraordinaires par leurs capacités et étonnants par leur stupidité. Je ne peux pas m’enthousiasmer pour le prochain tournant de la révolution de l’IA, automobile ce tournant se situe dans un endroit où les ordinateurs ne peuvent pas toujours maintenir la précision, même sur des choses mineures.
Je veux dire, ils ont même fait une erreur lors du grand discours de Google sur l’IA à I/O. Dans une publicité pour le nouveau moteur de recherche de Google, doté de l’intelligence artificielle, quelqu’un a demandé remark réparer un appareil picture coincé, et il lui a suggéré « d’ouvrir la porte arrière et de retirer délicatement le movie ». C’est le moyen le plus easy de détruire toutes les images que vous avez déjà prises.
La relation difficile d’une IA avec la vérité est qualifiée d’« hallucinante ». En termes extrêmement simples : ces machines sont excellentes pour découvrir des modèles d’informations, mais dans leur tentative d’extrapoler et de créer, elles se trompent parfois. En réalité, ils « hallucinent » une nouvelle réalité, et cette nouvelle réalité est souvent fausse. Il s’agit d’un problème délicat, et chaque personne travaillant actuellement sur l’IA en est consciente.
Un ancien chercheur de Google a affirmé que le problème pourrait être résolu d’ici un an. (bien qu’il ait déploré ce résultat), et Microsoft dispose d’un outil pour certains de ses utilisateurs censé les aider à les détecter. Liz Reid, responsable de la recherche chez Google, dit Le bord il est également conscient du défi. « Il y a un équilibre entre créativité et factualité » dans tout modèle linguistique, a-t-elle déclaré à mon collègue David Pierce. “Nous allons vraiment pencher la stability vers le côté factuel.”
Mais remarquez remark Reid a dit qu’il y avait un équilibre ? C’est parce que beaucoup de chercheurs en IA ne pensent pas réellement aux hallucinations. peut être résolu. Une étude de l’Université nationale de Singapour suggèrent que les hallucinations sont un résultat inévitable de tous les grands modèles de langage. Tout comme personne n’a toujours raison à 100 %, ces ordinateurs non plus.
Et c’est probablement la raison pour laquelle la plupart des acteurs majeurs dans ce domaine – ceux qui disposent de réelles ressources et d’incitations financières pour nous inciter tous à adopter l’IA – pensent qu’il ne faut pas s’en inquiéter. Lors du discours d’ouverture de Google sur les IO, Google a ajouté, en minuscules caractères gris, l’expression « vérifier l’exactitude des réponses » à l’écran situé sous presque tous les nouveaux outils d’IA qu’il a présentés – un rappel utile que l’on ne peut pas faire confiance à ses outils, mais ce n’est pas non plus le cas. Je ne pense pas que ce soit un problème. ChatGPT fonctionne de la même manière. En minuscules juste en dessous de la fenêtre d’invite, il est écrit : « ChatGPT peut faire des erreurs. Vérifiez les informations importantes.
Ce n’est pas un avertissement que vous souhaiteriez voir de la half d’outils censés changer nos vies entières dans un avenir très proche ! Et les personnes qui fabriquent ces outils ne semblent pas trop se soucier de résoudre le problème au-delà d’un petit avertissement.
Sam Altman, le PDG d’OpenAI qui a été brièvement évincé pour avoir donné la priorité au revenue plutôt qu’à la sécurité, est allé plus loin et a déclaré que quiconque avait un problème avec la précision de l’IA était naïf. « Si vous faites simplement preuve de naïveté et dites : « Ne dites jamais quelque selected dont vous n’êtes pas sûr à 100 % », vous pouvez les amener tous à faire cela. Mais il n’y aura pas la magie que les gens aiment tant. » a-t-il déclaré à un public lors de la conférence Dreamforce de Salesforce l’année dernière.
Cette idée selon laquelle il existe une sorte de sauce magique non quantifiable dans l’IA qui nous permettra de pardonner sa relation ténue avec la réalité est souvent évoquée par les personnes désireuses d’écarter les problèmes de précision. Google, OpenAI, Microsoft et de nombreux autres développeurs et chercheurs en IA ont rejeté l’hallucination comme un petit désagrément qui devrait être pardonné parce qu’ils sont sur la bonne voie pour créer des êtres numériques qui pourraient nous faciliter la vie.
Mais mes excuses à Sam et à tous ceux qui ont été financièrement incités à m’enthousiasmer pour l’IA. Je ne viens pas aux ordinateurs pour la magie inexacte de la conscience humaine. Je viens vers eux parce qu’ils sont très précis alors que les humains ne le sont pas. Je n’ai pas besoin que mon ordinateur soit mon ami ; J’en ai besoin pour déterminer mon sexe lorsque je le demande et pour m’aider à ne pas exposer accidentellement le movie lors de la réparation d’un appareil picture cassé. Les avocats, je suppose, aimeraient que la jurisprudence soit correcte.
je comprendre d’où viennent Sam Altman et d’autres évangélistes de l’IA. Il existe une possibilité, dans un avenir lointain, de créer une véritable conscience numérique à partir de uns et de zéros. À l’heure actuelle, le développement de l’intelligence artificielle progresse à une vitesse stupéfiante qui fait honte à de nombreuses révolutions technologiques précédentes. Il y a actuellement une véritable magie à l’œuvre dans la Silicon Valley.
Mais l’IA pense que j’ai une barbe. Elle ne peut pas systématiquement comprendre les tâches les plus simples, et pourtant, elle nous est imposée dans l’espoir que nous célébrions l’incroyable médiocrité des providers fournis par ces IA. Même si je peux certainement m’émerveiller devant les improvements technologiques qui se produisent, j’aimerais que mes ordinateurs ne sacrifient pas la précision simplement pour pouvoir parler à un avatar numérique. Ce n’est pas un échange équitable, c’est seulement un échange intéressant.