Voici les points clés :
- Surévaluation des capacités de l’IA générative :
- Brooks souligne que l’IA générative est impressionnante, mais elle ne peut pas tout faire. Les humains ont tendance à surestimer ses capacités en généralisant à partir de tâches spécifiques.
- Lorsqu’un humain observe un système IA accomplir une tâche, il a tendance à extrapoler ses compétences, même au-delà de ce qu’il a démontré. Cela peut conduire à des attentes irréalistes.
- L’IA générative n’est pas humaine :
- Brooks insiste sur le fait que l’IA générative n’est pas semblable à l’intelligence humaine. Assigner des capacités humaines à l’IA est une erreur.
- Par exemple, utiliser un modèle de langage pour diriger des robots d’entrepôt n’est pas toujours la meilleure approche. Les systèmes de traitement de données massifs et d’optimisation sont souvent plus efficaces.
- Solutions raisonnables et intégration des robots :
- Selon Brooks, il faut résoudre des problèmes solubles où les robots peuvent s’intégrer facilement. Les entrepôts, par exemple, sont un domaine où l’automatisation fonctionne bien.
- Plutôt que de chercher à tout automatiser, concentrons-nous sur des domaines spécifiques où l’IA peut réellement apporter une valeur ajoutée.
Actuellement professeur émérite de robotique Panasonic au MIT, Rodney Brooks a également cofondé trois entreprises importantes, dont Rethink Robotics, iRobot et son entreprise actuelle, Robust.ai. Brooks a également dirigé le laboratoire d'informatique et d'intelligence artificielle du MIT (CSAIL) pendant une décennie à partir de 1997.
En fait, il aime faire des prédictions sur l'avenir de l'intelligence artificielle et tient un tableau de bord sur son blog pour savoir s'il s'en sort bien.
Il sait de quoi il parle et pense qu'il est peut-être temps de mettre un frein au battage médiatique de l'IA générative. Brooks pense qu'il s'agit d'une technologie impressionnante, mais qu'elle n'est peut-être pas aussi performante que beaucoup le suggèrent. « Je ne dis pas que les LLM ne sont pas importants, mais nous devons être prudents dans la manière dont nous les évaluons », a-t-il déclaré.
Surévaluation des capacités de l’IA générative
Selon lui, le problème de l'IA générative est que, bien qu'elle soit parfaitement capable d'effectuer un certain nombre de tâches, elle ne peut pas faire tout ce qu'un humain peut faire, et les humains ont tendance à surestimer ses capacités. « Lorsqu'un humain voit un système d'IA effectuer une tâche, il la généralise immédiatement à des choses similaires et évalue la compétence du système d'IA ; pas seulement la performance, mais la compétence qui l'entoure », explique Brooks. « Et ils sont généralement très optimistes, parce qu'ils utilisent un modèle de la performance d'une personne dans une tâche ».
Il ajoute que le problème est que l'IA générative n'est pas humaine, ni même semblable à l'homme, et qu'il est erroné d'essayer de lui attribuer des capacités humaines. Il ajoute que les gens la considèrent comme tellement capable qu'ils veulent même l'utiliser pour des applications qui n'ont pas de sens.
Brooks cite en exemple sa dernière entreprise, Robust.ai, un système de robotique d'entrepôt. Quelqu'un lui a récemment suggéré qu'il serait cool et efficace de dire à ses robots d'entrepôt où aller en construisant un LLM pour son système. Selon lui, il ne s'agit pas d'un cas d'utilisation raisonnable de l'IA générative et cela ralentirait même les choses. Il est beaucoup plus simple de connecter les robots à un flux de données provenant du logiciel de gestion de l'entrepôt.
« Lorsque vous avez 10 000 commandes qui viennent d'arriver et que vous devez les expédier en deux heures, vous devez les optimiser. Le langage ne sera d'aucune utilité ; il ne fera que ralentir les choses », a-t-il déclaré. « Nous disposons d'un traitement massif des données et de techniques d'optimisation et de planification à base d'IA. C'est ainsi que les commandes sont traitées rapidement ».
Solutions raisonnables et intégration des robots
Une autre leçon que Brooks a tirée en matière de robots et d'IA est qu'il ne faut pas essayer d'en faire trop. Il faut résoudre un problème qui peut être résolu et dans lequel les robots peuvent être intégrés facilement.
« Nous devons automatiser là où les choses ont déjà été nettoyées. L'exemple de mon entreprise est que nous réussissons assez bien dans les entrepôts, et les entrepôts sont en fait assez contraignants. L'éclairage ne change pas dans ces grands bâtiments. Il n'y a pas d'objets qui traînent sur le sol parce que les personnes qui poussent les chariots s'y heurtent. Il n'y a pas de sacs en plastique flottants. En outre, il n'est pas dans l'intérêt des personnes qui y travaillent d'être malveillantes à l'égard du robot », a-t-il déclaré.
Brooks explique qu'il s'agit aussi de faire travailler ensemble les robots et les humains. Son entreprise a donc conçu ces robots à des fins pratiques liées aux opérations d'entreposage, plutôt que de construire un robot à l'apparence humaine. Dans ce cas, il ressemble à un chariot de supermarché avec une poignée.
« Le facteur de forme que nous utilisons n'est donc pas un humanoïde qui se promène, même si j'ai construit et livré plus d'humanoïdes que n'importe qui d'autre. Ils ressemblent à des chariots de supermarché », a-t-il déclaré. « Il y a un guidon, de sorte qu'en cas de problème avec le robot, une personne peut saisir le guidon et en faire ce qu'elle veut », a-t-il ajouté.
Après toutes ces années, Brooks a appris qu'il s'agit de rendre la technologie accessible et adaptée. « J'essaie toujours de rendre la technologie facile à comprendre pour les gens, ce qui nous permet de la déployer à grande échelle, et de toujours tenir compte de l'analyse de rentabilité ; le retour sur investissement est également très important ».
Malgré cela, Brooks estime que nous devons accepter qu'il y aura toujours des cas aberrants difficiles à résoudre en matière d'IA, dont la résolution pourrait prendre des dizaines d'années. « Si l'on n'encadre pas soigneusement la manière dont un système d'IA est déployé, il y aura toujours une longue série de cas particuliers qui prendront des décennies à être découverts et résolus. Paradoxalement, tous ces correctifs sont eux-mêmes complets en matière d'IA ».
Une croyance erronée, principalement due à la loi de Moore
Brooks ajoute qu'il existe une croyance erronée, principalement due à la loi de Moore, selon laquelle il y aura toujours une croissance exponentielle en matière de technologie - l'idée que si ChatGPT 4 est aussi bon, imaginez ce que sera ChatGPT 5, 6 et 7. Il voit une faille dans cette logique, à savoir que la technologie ne connaît pas toujours une croissance exponentielle, en dépit de la loi de Moore.
Il prend l'iPod comme exemple. Pendant quelques itérations, sa capacité de stockage a effectivement doublé, passant de 10 à 160 Go. S'il avait continué sur cette trajectoire, il a calculé que nous aurions un iPod avec 160 To de stockage en 2017, mais bien sûr, ce n'est pas le cas. Les modèles vendus en 2017 étaient en fait dotés de 256 ou 160 Go car, comme il l'a souligné, personne n'avait besoin de plus que cela.
Brooks reconnaît que les LLM pourraient être utiles à un moment donné avec les robots domestiques, où ils pourraient effectuer des tâches spécifiques, en particulier avec une population vieillissante et un nombre insuffisant de personnes pour s'occuper d'eux. Mais même cela, dit-il, pourrait s'accompagner d'une série de défis uniques.
« Les gens disent : "Oh, les grands modèles de langage vont permettre aux robots de faire des choses qu'ils ne peuvent pas faire". Le problème n'est pas là. Le problème de la capacité à faire des choses relève de la théorie du contrôle et de toutes sortes d'optimisation mathématique pure et dure », a-t-il déclaré.
Brooks explique que cela pourrait éventuellement conduire à des robots dotés d'interfaces linguistiques utiles pour les personnes en situation de soins. « Il n'est pas utile dans un entrepôt de dire à un robot individuel d'aller chercher une chose pour une commande, mais il pourrait être utile pour les soins aux personnes âgées dans les maisons de retraite que les gens puissent dire des choses aux robots », a-t-il déclaré.
Conclusion
L’IA générative est prometteuse, mais elle a ses limites. En gardant à l’esprit les perspectives de Rodney Brooks, nous pouvons adopter une approche plus équilibrée. L’IA n’est pas une solution universelle, mais un outil puissant lorsqu’elle est utilisée judicieusement.
Source : Rodney Brooks
Et vous ?
Jusqu’où devrions-nous faire confiance à l’IA générative ? Pensez à la confiance que vous accordez aux systèmes IA génératifs. Quelles sont les limites de cette confiance ? Comment pouvons-nous équilibrer l’enthousiasme pour l’IA avec la prudence nécessaire ?
Quelles sont les implications éthiques de l’IA générative ? Explorez les aspects éthiques de l’IA générative. Quelles sont les préoccupations liées à la création d’œuvres générées par des machines ? Comment pouvons-nous garantir que ces systèmes ne sont pas utilisés de manière abusive ?
Comment pouvons-nous évaluer l’efficacité de l’IA générative ? Discutez des critères d’évaluation pour les systèmes IA génératifs. Quelles mesures devrions-nous utiliser pour évaluer leur performance ? Comment pouvons-nous éviter les biais et les erreurs ?
L’IA générative peut-elle surpasser la créativité humaine ? Quelles sont les limites de la créativité algorithmique ? Y a-t-il des domaines où l’IA peut surpasser l’homme ?
Quelles sont les implications économiques de l’automatisation par l’IA générative ? Evoquez les conséquences économiques de l’automatisation par l’IA générative. Comment cela affecte-t-il l’emploi, les industries et la société dans son ensemble ?