
Envoyé par
vVDB.fr
il n'y a aucune intelligence dans ces algorithmes probabilistes. C'est de la connaissance encyclopédique.
Par quel miracle ce gugus va-t-il supprimer les biais qui sont intrinsèques au système probabiliste ? Il parle d'un niveau doctorant, donc scientifiquement irréfutable.
L'intelligence ce n'est pas ce qui est le plus consensuel, attendu, probable, et surtout pas la moyenne !
A ce tarif, la terre serait toujours plate et vous seriez des hérétiques...
Le système sera intelligent lorsqu'il se posera la question de la cohérence des informations à chaque fois qu'on lui ingurgite une nouvelle donnée. l'IA ne doit pas bâtir une réponse sur des croyances. Les réponses ne peuvent être magiques comme aujourd'hui mais obligatoirement sourcées.
Que doit répondre une IA avec les données de l'an 800 à Charlemagne quand il lui pose la question : la terre, est-elle plate ?
- elle est bien plate (dogme de l'église)
- impossible de confirmer qu'elle est plate (hérétique).
- Ératosthène a montré qu'elle était sphérique (limite du blasphème pour Charlemagne)
Vous reprenez un jeu de questions aléatoires, avec une IA Afghane (uniquement alimentée avec des écritures saintes) ne devrait-elle pas donner les mêmes réponses qu'une IA athée ?
Quand Trump pose une question à une IA et que LA réponse ne lui convient pas : you're fired ? Et bien non, c'est pas comme ça la vrai vie pépère !
Nous sommes à des années lumières de l'intelligence supérieure promise par les Altman et consorts qui survendent de la proba pour de l'intelligence. J'ose : chatGPT est un simple Marmiton V2, une base de recettes.
Intéressant quand même, comme un post destiné à démontrer les supposées limites de l'IA et à critiquer vertement les déclarations d'un des hommes les mieux renseignés sur ce sujet sur terre, arrive en réalité à démontrer les limites du raisonnement humain ou en tout cas de certains humains. Le plus important je pense pour commencer est de démonter les multiples erreurs de ce poste.
Sur le plan historique, Charlemagne a priori pensait que la Terre était ronde comme la majorité de ses contemporains. Le choix de Charlemagne est d'ailleurs assez étonnant, car c'est justement une statue de Charlemagne dont l'on se sert souvent pour montrer cela. Une statue bien connue de Charlemagne arborant un globe dans la main censé représenter son pouvoir sur la Terre.
Ensuite l'église de cette époque a priori soutenait l'idée selon laquelle la terre était ronde, l'église n'était pas là pour s'occuper de sciences, mais étant donné que rien dans la Bible ne va contre cette idée (certain versets peuvent même être interprété comme soutenant cette idée), c'est une question sur laquelle elle n'a pas eu de vraie position officielle. Cependant, il est possible de dire qu'elle était plutôt favorable à cette idée, étant donné que beaucoup de grands hommes d'église, dont les pères de l'église, soutenaient la rotondité de la terre. Ce à quoi vous faites allusion, ce sont des procès ultérieurs, et je vous invite à vous renseigner un petit peu plus sur ces affaires, car c'était loin d'être un simple problème scientifique. Mais l'avis des historiens sur le sujet, c'est que l'Église considérait que la terre était ronde durant le Moyen-Âge.
Comble de l'ironie, lorsque je demande à Copilot qui, il me semble, transmet les réponses à partir d'un moteur issu des GPT d'OpenAI, il me répond que les hommes du Moyen-Âge pensaient que la Terre était ronde et que la croyance selon laquelle les personnes du Moyen-Âge pensaient que la Terre était plate, bien que très répandue à notre époque, est totalement fausse et vient des différents mensonges de la Renaissance, entre autres de Voltaire. Comme quoi, l'approche probabiliste, apparemment lorsqu'elle est bien gérée, peut quand même permettre de générer une réponse qui va à contre-courant de l'avis général en se basant sur des sources sérieuses, ce qu'apparemment votre esprit humain n'a en l'occurrence pas réussi à faire.
Ensuite, la dernière phrase sur l'IA afghane et je ne vois pas vraiment pourquoi une telle obsession sur les croyances religieuses alors qu'on parle d'intelligence artificielle, mais en réalité on peut élargir la question et se demander si ce même jeu de questions aléatoire posé à un Afghan et un Américain auront vraiment les mêmes réponses. On est le produit de son environnement, il est tout à fait normal que les IA puissent subir les mêmes biais. Encore une fois vous êtes la preuve que la légende d'un moyen Âge obscure qui est un pur produit de notre roman national a encore plus d'effets sur les humains que les IAs.
Sur un plan fluide technique, effectivement, les IA transmettent des réponses qui sont avant tout probabilistes, puisqu'elles réfléchissent avec une méthode qui, vous avez raison, utilise une moyenne, quand a priori l'esprit humain ne procède pas de la même façon, et cela donne, vous avez encore raison, de célèbres lacunes de l'IA qui sur certaines questions n'arrivent pas à sortir de ces biais probabilistes, par exemple, il est très difficile de gérer une montre qui n'indique pas 10h10, car l'immense majorité des photos que l'IA trouve avec des montres indiquent 10h10 et qu'elle n'est visiblement pas capable de comprendre qu'une montre peut indiquer autre chose. Mais au-delà de certains cas très précis comme ceux-là, l'approche probabiliste, bien qu'elle nécessite d'être prises en compte, ne pose pas de problème majeur. En l'occurrence, les dernières IA que l'on a sont des groupes d'IA avec tout un tas de sous-IA qui sont capables de se corriger entre elles et de conduire une réflexion avec une IA majeure qui est capable de décomposer le problème, par exemple.
En réalité, dans un futur proche, si l'IA est capable d'appeler des IA spécialisées / logiciels dans tout un tas de domaines, de comparer les réponses et d'évaluer les résultats, elle sera capable de mener des raisonnements complexes. La question de savoir si l'IA pourrait vraiment générer des résultats scientifiques nouveaux grâce à uniquement sa compréhension est toujours ouverte à ma connaissance. Pour l'instant, ce n'est pas le cas. Mais par contre, il est très clair que les IA aujourd'hui arriveront à remplacer la plupart des professionnels, et que l'accès à une puissance de calcul très importante débloque malgré tout de nombreux domaines de la recherche, je pense à AlphaMind par exemple. D'un point de vue plus terre à terre, et pour sortir des grands discours et raisonnements sur ce sujet
Je suis développeur et actuellement avec une IA comme Bolt ou Windsurf qui sont connectés à AntropicAI et utilisent des cascades d'IA c'est complètement hallucinant ce qu'on arrive à générer. J'ai par exemple généré une application d'édition de Markdown avec prévisualisation et stockage sur un serveur en ligne. L'interface est magnifique, bien meilleure que ce que j'arriverai à faire. Je suis plutôt back-end, mais en réalité même pour un dev front-end, ça aurait pris des heures. Là j'ai réussi à le générer en dix minutes et pour deux euros. Donc peu importe la réponse à la question "l'IA est-elle capable de réfléchir par elle-même", à laquelle vous donnez une réponse qui est de toute manière bien trop précipitée... Même si cela n'était pas le cas, l'IA aujourd'hui est en capacité de remplacer un bon nombre de professionnels, y compris des docteurs (AH oui et doctorant != scientifiquement irréfutable, ça c'est du grand n’importe quoi. D'ailleurs les systèmes d'indexations ressemblent à s'y méprendre au fonctionnement de l'IA). Et donc son apport doit absolument être pris en compte. Le PDG d'Antropic a tout à fait raison.
0 |
4 |