Sa sortie s’accorde en tout cas avec celle du PDG de Google Deepmind, à mi-parcours de l’année qui tire à son terme, et selon laquelle « l’atteinte d’une forme d’intelligence artificielle de niveau humain (AGI) est possible dans une décennie. » C’est un avis similaire à celui du PDG de SoftBank selon lequel l’intelligence artificielle générale, qui surpasse l’intelligence humaine dans tous les domaines, devrait voir le jour d’ici 10 ans. En tout cas, « les personnes intelligentes qui pensent que l’IA ne pourrait pas l’être plus qu’elles sont bien plus bêtes qu’elles ne le pensent », selon Elon Musk qui est d’avis que l’atteinte du stade d’intelligence artificielle générale relève de l’inéluctable.
L’intelligence artificielle générale (AGI) est déjà présente, selon des chercheurs et ingénieurs de Google
« Les modèles d’IA les plus avancés d’aujourd’hui, tels que ChatGPT, Bard, LLaMA et Claude, sont considérés comme des modèles d’avant-garde qui présentent de nombreux défauts. Cependant, ils ont déjà franchi un seuil que les générations précédentes d’IA et de systèmes d’apprentissage profond supervisé n’ont jamais réussi à atteindre. Ils sont performants même dans des nouvelles tâches pour lesquelles ils n’ont pas été entrainés. Dans plusieurs décennies, ils seront reconnus comme les premiers véritables exemples d’intelligence générale artificielle (AGI), tout comme l’ENIAC de 1945 est aujourd’hui reconnu comme le premier véritable ordinateur électronique à usage général. Les ordinateurs d’aujourd’hui dépassent de loin la vitesse, la mémoire, la fiabilité et la facilité d’utilisation de l’ENIAC, et de la même manière, l’IA de demain améliorera celle d’aujourd’hui », indiquent Blaise Agüera y Arcas, vice-président et membre de Google Research, qui dirige une organisation travaillant sur la recherche fondamentale, le développement de produits et l’infrastructure pour l’IA, et Peter Norvig, informaticien et chercheur en éducation à l’Institut de Stanford pour l’IA centrée sur l’homme.
« L'intelligence générale doit être considérée comme un tableau de bord multidimensionnel, et non comme une proposition unique de type oui/non. Néanmoins, il existe une discontinuité significative entre l'intelligence restreinte et l'intelligence générale : Les systèmes étroitement intelligents exécutent généralement un ensemble de tâches unique ou prédéterminé, pour lequel ils ont été explicitement formés. Même l'apprentissage multitâche ne produit qu'une intelligence restreinte, car les modèles fonctionnent toujours dans les limites des tâches envisagées par les ingénieurs. En effet, une grande partie du travail d'ingénierie difficile nécessaire au développement de l'intelligence artificielle restreinte consiste à conserver et à étiqueter des ensembles de données spécifiques à une tâche », ajoutent-ils.
Blake Lemoine, ancien ingénieur de Google et éthicien de l'intelligence artificielle a été licencié l'été dernier après avoir affirmé que son LaMDA LLM était devenu sensible. Ce dernier est d’avis que les modèles d’intelligence artificielle tels que nous les présentent déjà les grandes entreprises technologiques sont des artefacts intelligents. La sortie de la publication des chercheurs de Google était d’ailleurs l’occasion pour lui de signifier son approbation avec les conclusions mises en avant en son sein.
« L'AGI est le mensonge de l'année. L'intelligence artificielle générale n'existe pas », selon un critique
Dana Blankenhorn, journaliste technologique, s'en prend vertement à ce qu'il appelle le battage médiatique autour de l'intelligence artificielle générale (AGI). Il affirme que l'AGI est le plus gros mensonge de l'année et que cette technologie n'existe tout simplement pas. Son analyse suggère que la surmédiatisation de l'AGI est liée aux visées politiques de certains acteurs importants du secteur de l'IA et à leurs tentatives visant à contrôler entièrement le développement de la technologie. Le journaliste allègue en outre que le but de ces acteurs est d'élever considérablement les barrières à l'entrée de nouveaux acteurs sur le marché.
Voici l’essentiel de sa position sur la question :
« Avant que tout le monde ne commence à publier des articles sur le "meilleur de 2023", voici le mensonge de l'année.
L'intelligence artificielle générale (AGI)
Ce mensonge a été élaboré lorsque l'OpenAI a commencé à pousser des programmes d'"intelligence artificielle générative" comme son ChatGPT, et il continue de se répandre. L'IA générative est issue de l'informatique de base de données basée sur le cloud que nous avons depuis une décennie. Elle est issue d'entreprises telles que Salesforce.com, qui vendaient des bases de données en tant que service dans le sillage de l'explosion de l'année 2000.
L'IA générative combine l'apprentissage automatique à partir d'une grande base de données avec une sortie flexible. Vous voulez une photo d'Elon Musk en rat ? Que diriez-vous d'une chanson sur les arbres dans le style de Steely Dan ? Voulez-vous une histoire sur l'actualité racontée par Mark Twain ? Que diriez-vous de rendre le pare-feu de votre entreprise proactif plutôt que réactif ? Il existe un programme d'IA générative qui vous aide à accomplir toutes ces tâches. C'est génial.
L'apprentissage automatique sur le Big Data
Mais l'IA générative n'est pas la même chose que l'intelligence générale.
Il s'agit d'un apprentissage automatique fondé sur un grand modèle de langage. Il s'agit d'un logiciel dont les résultats imitent ce que les gens ont fait avant lui. Cela signifie qu'elle a besoin d'informations sur ce qui a déjà été fait et d'algorithmes basés sur des données humaines pour faire quoi que ce soit.
L'IA générative ne peut pas penser. Elle ne peut que calculer.
Le mensonge sur l'intelligence artificielle générale est, comme la plupart des autres mensonges aujourd'hui, raconté pour des raisons politiques. Sam Altman veut que les grandes entreprises technologiques contrôlent le marché. Il veut que le gouvernement "réglemente" l'IA afin que seules quelques personnes et entreprises puissent l'utiliser, et il veut bien sûr faire partie des élus. Au minimum, son objectif est d'élever considérablement les barrières à l'entrée du nouveau marché.
En effet, l'IA générative peut rapporter beaucoup d'argent. Elle peut augmenter la productivité. Par exemple, elle peut planifier les ressources d'un hôpital, y compris son personnel, plus efficacement que la direction, parce qu'elle connaît toutes les ressources dont dispose l'hôpital, ainsi que les schémas d'utilisation.
C'est ce que nous montrent les travaux des entreprises de bases de données existantes. Elles s'appellent toutes vendeuses d'"IA" aujourd'hui. Palantir et ServiceNow connaissent une croissance de 20 à 30 % par an, de manière rentable.
L'utilisation des clouds pour traiter les données des programmes d'IA a également permis au fabricant de puces Nvidia de croître de 60 % par an. La capacité des clouds est absorbée par les clients, impatients de former de nouveaux modèles, aussi vite qu'elle est installée.
Mais il ne s'agit pas d'intelligence. Il s'agit de logiciels, d'algorithmes spécifiques conçus pour des ensembles de données spécifiques, avec des cas d'utilisation spécifiques, écrits, installés et gérés par des êtres humains. Ce n'est rien sans vous. »
En somme, bien que Blankenhorn ne remette pas en cause le concept de l'AGI, il s'offusque contre le battage médiatique autour de cette technologie "hypothétique" et ses dangers potentiels pour l'humanité. Il affirme que tout ceci est fait afin de permettre à un petit groupe d'entreprises de contrôler le secteur de l'IA et d'entraver la concurrence en rendant difficile l'entrée de nouveaux acteurs sur le marché.
Source : Vidéo Shane Legg
Et vous ?
Que pensez-vous de l'analyse de Dana Blankenhorn sur l'AGI ? La trouvez-vous pertinente ?
Comment évaluez-vous les avancées en matière d’intelligence artificielle ? Quels sont les marqueurs qui laissent penser que ce n’est qu’une question de temps avant que la recherche n’atteigne le stade d’intelligence artificielle de niveau humain ? Est-il possible que ce ne soit jamais le cas ?
Voir aussi :
Comment saurons-nous que nous avons atteint une forme d'intelligence générale artificielle ? Pour certains experts en IA, ce sera lorsque la machine aura une cognition de niveau humain
Comment vous préparez-vous à la probabilité d'un effondrement économique causé par l'AGI ? Certains suggèrent l'achat d'actions technologiques et d'autres pensent que cela n'arrivera pas
Sam Altman, PDG d'OpenAI, affirme que ChatGPT aurait pu être considéré comme une intelligence générale artificielle il y a 10 ans, il a laissé entendre que le chatbot est victime de l'effet IA