Lorsque Rodney Brooks parle de robotique et d’intelligence artificielle, vous devriez l’écouter. Actuellement professeur émérite de robotique Panasonic au MIT, il a également cofondé trois entreprises clés, dont Rethink Robotics, iRobot et sa société actuelle, Sturdy.ai. Brooks a également dirigé le laboratoire d’informatique et d’intelligence artificielle du MIT (CSAIL) pendant une décennie à partir de 1997.
En fait, il aime faire des prédictions sur l’avenir de l’IA et tient une carte de pointage sur son weblog pour voir à quel level il va bien.
Il sait de quoi il parle et il pense qu’il est peut-être temps de mettre un frein au battage médiatique criant autour de l’IA générative. Brooks pense qu’il s’agit d’une technologie impressionnante, mais peut-être pas aussi performante que beaucoup le suggèrent. « Je ne dis pas que les LLM ne sont pas importants, mais nous devons faire consideration à la façon dont nous les évaluons », a-t-il déclaré à TechCrunch.
Selon lui, le problème de l’IA générative est que, même si elle est parfaitement succesful d’effectuer un sure nombre de tâches, elle ne peut pas faire tout ce que fait un humain, et les humains ont tendance à surestimer ses capacités. « Lorsqu’un humain voit un système d’IA effectuer une tâche, il la généralise immédiatement à des choses similaires et fait une estimation de la compétence du système d’IA ; pas seulement de la efficiency sur cette tâche, mais de la compétence autour de celle-ci », a déclaré Brooks. « Et ils sont généralement très optimistes, automobile ils utilisent un modèle de la efficiency d’une personne sur une tâche. »
Il a ajouté que le problème est que l’IA générative n’est pas humaine ni même semblable à l’humain, et qu’il est erroné d’essayer de lui attribuer des capacités humaines. Il dit que les gens le voient comme si performant qu’ils veulent même l’utiliser pour des purposes qui n’ont aucun sens.
Brooks cite comme exemple sa dernière entreprise, Sturdy.ai, un système de robotique d’entrepôt. Quelqu’un lui a récemment suggéré qu’il serait intéressant et efficace de dire à ses robots d’entrepôt où aller en construisant un LLM pour son système. Selon lui, cependant, ce n’est pas un cas d’utilisation raisonnable pour l’IA générative et cela ralentirait en fait les choses. Il est en revanche beaucoup plus easy de connecter les robots à un flux de données provenant du logiciel de gestion d’entrepôt.
« Lorsque vous avez 10 000 commandes qui viennent d’arriver et que vous devez expédier en deux heures, vous devez optimiser votre manufacturing pour cela. Le langage ne va pas vous aider, il ne fera que ralentir les choses », a-t-il déclaré. « Nous disposons d’un traitement de données massif et de strategies d’optimisation et de planification de l’IA massives. Et c’est ainsi que nous pouvons exécuter les commandes rapidement. »
Une autre leçon que Brooks a apprise en matière de robots et d’IA est qu’il ne faut pas essayer d’en faire trop. Vous devez résoudre un problème résoluble dans lequel les robots peuvent être intégrés facilement.
« Nous devons automatiser là où les choses ont déjà été nettoyées. Ainsi, l’exemple de mon entreprise est que nous nous en sortons plutôt bien dans les entrepôts, et que les entrepôts sont en fait assez contraints. L’éclairage ne change pas avec ces grands bâtiments. Il n’y a pas d’objets qui traînent sur le sol, automobile les gens qui poussent les chariots se heurteraient à ça. Il n’y a pas de sacs en plastique flottants. Et dans l’ensemble, il n’est pas dans l’intérêt des personnes qui y travaillent de faire preuve de malveillance envers le robotic », a-t-il déclaré.
Brooks explique qu’il s’agit également de robots et d’humains travaillant ensemble. Son entreprise a donc conçu ces robots à des fins pratiques liées aux opérations d’entrepôt, plutôt que de construire un robotic ressemblant à un humain. Dans ce cas, il ressemble à un chariot de supermarché avec une poignée.
« Nous n’utilisons donc pas de robots humanoïdes qui se déplacent, même si j’ai construit et livré plus de robots humanoïdes que quiconque. Ils ressemblent à des chariots de supermarché », a-t-il déclaré. « Ils sont équipés d’un guidon, donc s’il y a un problème avec le robotic, une personne peut saisir le guidon et faire ce qu’elle veut avec », a-t-il déclaré.
Après toutes ces années, Brooks a appris qu’il s’agissait de rendre la technologie accessible et spécialement conçue. « J’essaie toujours de rendre la technologie facile à comprendre pour que les gens puissent la déployer à grande échelle et toujours examiner l’analyse de rentabilisation ; le retour sur investissement est également très essential.
Malgré tout, Brooks affirme que nous devons accepter qu’il y aura toujours des cas particuliers difficiles à résoudre en matière d’IA, qui pourraient prendre des décennies à résoudre. « Si l’on ne définit pas soigneusement la manière dont un système d’IA est déployé, il existe toujours une longue liste de cas particuliers qui prennent des décennies à découvrir et à résoudre. Paradoxalement, toutes ces options sont entièrement réalisées par l’IA. »
Brooks ajoute qu’il existe cette croyance erronée, principalement grâce à La loi de Moorequ’il y aura toujours une croissance exponentielle en matière de technologie – l’idée que si ChatGPT 4 est-ce bon, imaginez à quoi ressemblera ChatGPT 5, 6 et 7. Il voit une faille dans cette logique : la technologie ne croît pas toujours de façon exponentielle, malgré la loi de Moore.
Il utilise l’iPod comme exemple. En quelques itérations, la taille de stockage a en fait doublé, passant de 10 à 160 Go. S’il avait continué sur cette trajectoire, il pensait que nous aurions un iPod avec 160 To de stockage d’ici 2017, mais bien sûr, ce n’est pas le cas. Les modèles vendus en 2017 étaient en fait livrés avec 256 Go ou 160 Go automobile, comme il l’a souligné, personne n’avait réellement besoin de plus que cela.
Brooks reconnaît que les LLM pourraient être utiles à un second donné pour les robots domestiques, où ils pourraient effectuer des tâches spécifiques, en particulier dans un contexte de vieillissement de la inhabitants et de manque de personnel pour s’occuper d’eux. Mais même cela, dit-il, pourrait s’accompagner de son lot de défis uniques.
« Les gens disent : « Oh, les grands modèles de langage vont permettre aux robots de faire des choses qu’ils ne pourraient pas faire. » Ce n’est pas là que réside le problème. Le problème de pouvoir faire des choses concerne la théorie du contrôle et toutes sortes d’autres optimisations mathématiques fondamentales », a-t-il déclaré.
Brooks explique que cela pourrait éventuellement conduire à des robots dotés d’interfaces linguistiques utiles pour les personnes en state of affairs de soins. « Il n’est pas utile dans un entrepôt de dire à un robotic individuel d’aller chercher un article pour une commande, mais il peut être utile pour les soins aux personnes âgées à domicile que les gens puissent dire des choses aux robots », a-t-il déclaré.