IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

L'IA a surpassé l'homme dans un certain nombre de tâches et la vitesse à laquelle l'homme est surpassé dans de nouvelles tâches augmente,
Un défi pour notre identité et notre avenir collectif ?

Le , par Bruno

13PARTAGES

10  0 
Le développement rapide de l'intelligence artificielle (IA) a conduit à sa supériorité dans diverses tâches par rapport à l'homme, selon une étude de l'université de Californie à Berkeley. Les domaines où l'IA a dépassé l'homme incluent la reconnaissance de l'écriture manuscrite, la reconnaissance vocale, la compréhension d'images, la compréhension de la lecture, la compréhension du langage, l'acquisition du bon sens, les mathématiques de l'école primaire et la génération de codes. L'étude révèle également une accélération du rythme auquel l'IA surpasse l'homme dans de nouvelles tâches.

Cette tendance soulève des questions cruciales pour l'avenir du travail, de la société et de l'humanité. L'automatisation croissante due à la performance accrue de l'IA pourrait entraîner des pertes d'emplois et des changements dans l'organisation du travail. En ce qui concerne la société, l'IA a le potentiel d'améliorer les domaines tels que la médecine, l'éducation et le divertissement, mais elle présente aussi des risques, tels que la propagation de fausses informations et la création d'armes autonomes.

Enfin, la question de savoir si l'IA pourrait éventuellement surpasser l'intelligence humaine suscite des débats sur sa possible menace pour l'humanité, certains craignant une domination mondiale par l'IA, tandis que d'autres estiment qu'elle restera sous le contrôle humain. L'avenir de l'IA demeure incertain, mais son impact significatif sur le monde souligne l'importance de réfléchir aux implications dès maintenant afin de se préparer à l'évolution à venir. L'auteur encourage les lecteurs à partager leurs opinions sur l'avenir de l'IA dans les commentaires.

Les progrès de l'IA ne vont probablement pas ralentir

Au cours des dix dernières années, les systèmes d'IA se sont développés à une vitesse fulgurante. Après avoir battu un joueur légendaire au jeu complexe de Go en 2016, l'IA est aujourd'hui capable de reconnaître des images et des paroles mieux que les humains, et de réussir des tests tels que les examens d'écoles de commerce et les questions d'entretien d'Amazon sur le codage.

La semaine dernière, lors d'une audition de la commission judiciaire du Sénat américain sur la réglementation de l'IA, le sénateur Richard Blumenthal du Connecticut a décrit la réaction de ses électeurs face aux récentes avancées de l'IA. Le mot qui a été utilisé à maintes reprises est « effrayant ». La sous-commission « Vie privée, technologie et droit », qui supervisait la réunion, a entendu les témoignages de trois experts, qui ont souligné le rythme des progrès de l'IA. L'un de ces témoins, Dario Amodei, PDG de l'entreprise d'IA Anthropic, a déclaré que « la chose la plus importante à comprendre à propos de l'IA est la vitesse à laquelle elle évolue ».

Citation Envoyé par Dario Amodei
La caractéristique fondamentale de l'intelligence artificielle réside dans sa remarquable rapidité d'évolution. À titre personnel, je n'ai jamais observé de signes de ralentissement des progrès, et des chercheurs avec une expérience plus étendue que la mienne semblent corroborer cette observation. Les avancées sont également prévisibles, découlant de facteurs sous-jacents simples qui ne montrent aucun signe de fléchissement à court terme. Plus précisément, la puissance ou l'intelligence d'un système d'IA peut être estimée en multipliant trois éléments :
  • la quantité de puces utilisées pour son entraînement ;
  • la vitesse de ces puces ;
  • l'efficacité des algorithmes utilisés pour son apprentissage.

La quantité de puces employées pour former le modèle augmente de 2x à 5x par an. La vitesse des puces croît de 2 fois tous les 1 à 2 ans. L'efficacité des algorithmes augmente d'environ 2 fois par an. Ces paramètres s'additionnent pour engendrer un taux de progrès impressionnant. Ce qui paraissait impossible pour les systèmes d'IA devient souvent banal et est considéré comme acquis quelques années plus tard. Par exemple, il y a deux ans, l'idée qu'un système d'IA puisse raconter une blague pertinente était jugée absurde, alors que les robots d'aujourd'hui le font couramment.

J'ai été parmi les premiers à documenter cette tendance d'amélioration rapide lors de mon travail à l'OpenAI en 2018, et depuis lors, je l'ai toujours considérée comme la frontière des progrès de l'IA. Une implication majeure de tout cela est la nécessité de réfléchir à la manière dont les pouvoirs publics vont élaborer (ou du moins tenter d'élaborer) des politiques en anticipant l'état de la technologie dans 2 ou 3 ans, une perspective potentiellement radicalement différente de la situation actuelle.

Pour chaque critère de référence, le niveau de référence le plus performant indiqué dans le document de référence est considéré comme le « point de départ », qui est fixé à 0 %. La performance humaine est fixée à 100 %. Reconnaissance de l'écriture manuscrite = MNIST, Compréhension du langage = GLUE, Reconnaissance d'images = ImageNet, Compréhension de la lecture = SQuAD 1.1, Compréhension de la lecture = SQuAD 2.0, Reconnaissance de la parole = Switchboard, Mathématiques scolaires = GSK8k, Complétion du bon sens = HellaSwag, Génération de code = HumanEval.

On pense souvent que les progrès scientifiques et technologiques sont fondamentalement imprévisibles et qu'ils sont le fruit d'éclairs de lumière qui apparaissent plus clairement avec le recul. Mais les progrès des capacités des systèmes d'intelligence artificielle sont prévisibles et dépendent de l'évolution de trois éléments : le calcul, les données et les algorithmes.

Une grande partie des progrès réalisés au cours des 70 dernières années est due au fait que les chercheurs ont entraîné leurs systèmes d'IA en utilisant une plus grande puissance de traitement informatique, généralement appelée « calcul », en alimentant les systèmes avec davantage de données ou en trouvant des astuces algorithmiques qui réduisent effectivement la quantité de calcul ou de données nécessaire pour obtenir les mêmes résultats. Il est essentiel de comprendre comment ces trois facteurs ont fait progresser l'IA dans le passé pour comprendre pourquoi la plupart des personnes travaillant dans le domaine de l'IA ne s'attendent pas à ce que les progrès se ralentissent de sitôt.

Le premier réseau neuronal artificiel, le Perceptron Mark I, a été développé en 1957 et pouvait apprendre à déterminer si une carte était marquée à gauche ou à droite. Il comportait 1 000 neurones artificiels et son apprentissage nécessitait environ 700 000 opérations. Plus de 65 ans plus tard, l'OpenAI a publié le grand modèle linguistique GPT-4. L'entraînement de GPT-4 a nécessité environ 21 septillions d'opérations.

L'augmentation des calculs permet aux systèmes d'IA d'ingérer de plus grandes quantités de données, ce qui signifie que le système dispose de plus d'exemples à partir desquels il peut apprendre. Une plus grande capacité de calcul permet également au système de modéliser la relation entre les variables des données de manière plus détaillée, ce qui signifie qu'il peut tirer des conclusions plus précises et plus nuancées à partir des exemples qui lui sont présentés.

Depuis 1965, la loi de Moore - l'observation selon laquelle le nombre de transistors dans un circuit intégré double tous les deux ans environ - signifie que le prix de l'informatique n'a cessé de diminuer. Selon Jaime Sevilla, directeur d'Epoch, un organisme de recherche, si cette évolution s'est traduite par une augmentation de la quantité de calcul utilisée pour entraîner les systèmes d'IA, les chercheurs se sont davantage concentrés sur le développement de nouvelles techniques de construction de systèmes d'IA que sur la quantité de calcul utilisée pour entraîner ces systèmes.

Les choses ont changé vers 2010, explique Sevilla. « Les gens ont réalisé que si l'on formait des modèles plus grands, on n'obtiendrait pas de rendement décroissant », ce qui était l'opinion communément admise à l'époque.

Depuis lors, les développeurs ont dépensé des sommes de plus en plus importantes pour former des modèles à plus grande échelle. L'entraînement des systèmes d'IA nécessite des puces spécialisées coûteuses. Les développeurs d'IA construisent leur propre infrastructure informatique ou paient des fournisseurs d'informatique en nuage pour avoir accès à leur infrastructure. Sam Altman, PDG d'OpenAI, a déclaré que la formation du GPT-4 avait coûté plus de 100 millions de dollars. Cette augmentation des dépenses, combinée à la baisse continue du coût de l'augmentation de la capacité de calcul résultant de la loi de Moore, a conduit à la formation de modèles d'IA sur d'énormes quantités de calcul.

OpenAI et Anthropic, deux des principales entreprises d'IA, ont chacune levé des milliards auprès d'investisseurs pour payer le calcul qu'elles utilisent pour entraîner les systèmes d'IA, et chacune a conclu des partenariats avec des géants de la technologie aux poches bien garnies - OpenAI avec Microsoft et Anthropic avec Google.


FLOP (floating-point operations) désigne le nombre total d'opérations informatiques utilisées pour entraîner un système d'IA. Le calcul est estimé sur la base des résultats publiés dans la littérature sur l'IA et comporte une certaine incertitude. Epoch s'attend à ce que la plupart de ces estimations soient correctes à un facteur de 2, et à un facteur de 5 pour les modèles récents pour lesquels les chiffres pertinents n'ont pas été divulgués, tels que le GPT-4.

Les systèmes d'IA fonctionnent en construisant des modèles de relations entre les variables de leurs données d'apprentissage, qu'il s'agisse de la probabilité que le mot « maison » apparaisse à côté du mot « courir » ou des modèles de relation entre la séquence génétique et le pliage des protéines, le processus par lequel une protéine prend sa forme en 3D, qui définit ensuite sa fonction.

En général, un plus grand nombre de points de données signifie que les systèmes d'intelligence artificielle disposent de plus d'informations pour construire un modèle précis de la relation entre les variables des données, ce qui améliore les performances. Par exemple, un modèle linguistique alimenté par un plus grand nombre de textes aura un plus grand nombre d'exemples de phrases dans lesquelles le mot « courir » suit le mot « maison » - dans les phrases qui décrivent des matchs de baseball ou des succès éclatants, cette séquence de mots est plus probable.

L'article de recherche original sur le Perceptron Mark I indique qu'il a été entraîné sur seulement six points de données. À titre de comparaison, LlaMa, un grand modèle linguistique développé par des chercheurs de Meta et publié en 2023, a été entraîné sur environ un milliard de points de données, soit une multiplication par plus de 160 millions par rapport à Perceptron Mark I.

Dans le cas de LlaMa, les points de données étaient des textes collectés à partir d'un éventail de sources, dont 67 % de données Common Crawl (Common Crawl est une organisation à but non lucratif qui scrape l'internet et met les données collectées à disposition gratuitement), 4,5 % de GitHub (un service internet utilisé par les développeurs de logiciels) et 4,5 % de Wikipédia.


La taille des données de formation fait référence à la quantité de données utilisées pour former un modèle d'IA, indiquant le nombre d'exemples ou d'instances disponibles pour que le modèle puisse apprendre. Chaque domaine possède une unité d'entrée de points de données spécifique, comme les images pour former les modèles de vision, les mots pour les modèles de langage et les pas de temps pour les modèles de jeux. Cela signifie que les systèmes ne peuvent être comparés directement qu'au sein d'un même domaine.

Les algorithmes - ensembles de règles ou d'instructions qui définissent une séquence d'opérations à effectuer - déterminent la manière dont les systèmes d'IA utilisent la puissance de calcul pour modéliser les relations entre les variables des données qui leur sont fournies. En plus d'entraîner les systèmes d'IA sur de plus grandes quantités de données en utilisant des quantités croissantes de calcul, les développeurs d'IA ont trouvé des moyens d'obtenir plus à partir de moins. Une étude d'Epoch a montré que « tous les neuf mois, l'introduction de meilleurs algorithmes contribue à l'équivalent d'un doublement des budgets de calcul ».


Le progrès algorithmique signifie que moins de calculs et de données sont nécessaires pour atteindre un niveau de performance donné. Quantité de calcul et nombre de points de données nécessaires pour atteindre une précision de 80,9 % lors d'un test de reconnaissance d'images. Système de vision par ordinateur ResNeXt-101 sur le benchmark ImageNet. Le calcul est mesuré en FLOPs (opérations en virgule flottante). Les données sont mesurées en nombre d'images dans l'ensemble d'apprentissage.

Données, calculs, et algorithmes : les moteurs de l'évolution de l'IA

Selon Sevilla, la quantité de calcul que les développeurs d'IA utilisent pour entraîner leurs systèmes devrait continuer à augmenter à son rythme accéléré actuel pendant un certain temps, les entreprises augmentant le montant qu'elles consacrent à chaque système d'IA qu'elles entraînent, et l'efficacité augmentant au fur et à mesure que le prix du calcul continue à diminuer régulièrement. M. Sevilla prévoit que cette évolution se poursuivra jusqu'à ce qu'il ne soit plus rentable de continuer à dépenser de l'argent, lorsque l'augmentation de la quantité de calcul n'améliorera que légèrement les performances. Après cela, la quantité de calcul utilisée continuera d'augmenter, mais à un rythme plus lent, uniquement en raison de la baisse du coût du calcul résultant de la loi de Moore.

Les données qui alimentent les systèmes d'IA modernes, tels que LlaMa, sont extraites de l'Internet. Historiquement, le facteur limitant la quantité de données introduites dans les systèmes d'IA a été la disponibilité d'un nombre suffisant d'ordinateurs pour traiter ces données. Mais l'explosion récente de la quantité de données utilisées pour former les systèmes d'IA a dépassé la production de nouvelles données textuelles sur l'internet, ce qui a conduit les chercheurs d'Epoch à prédire que les développeurs d'IA seront à court de données linguistiques de haute qualité d'ici à 2026.

Les personnes qui développent des systèmes d'IA ont tendance à être moins préoccupées par ce problème. Lors d'une intervention dans le podcast Lunar Society en mars, Ilya Sutskever, scientifique en chef chez OpenAI, a déclaré que « la situation des données est encore assez bonne. Il reste encore beaucoup à faire ». Lors de son passage au podcast Hard Fork en juillet, Dario Amodei a estimé qu' « il y a peut-être 10 % de chances que cette mise à l'échelle soit interrompue en raison de l'incapacité à recueillir suffisamment de données ».

Sevilla est également convaincu que le manque de données n'empêchera pas d'autres améliorations de l'IA, par exemple en trouvant des moyens d'utiliser des données linguistiques de faible qualité, car contrairement au calcul, le manque de données n'a jamais été un goulot d'étranglement pour les progrès de l'IA auparavant. Il s'attend à ce que les développeurs d'IA découvrent un grand nombre d'innovations faciles à mettre en œuvre pour résoudre ce problème.

Selon Sevilla, les progrès algorithmiques continueront probablement à agir comme un amplificateur de la quantité de calcul et de données utilisée pour former les systèmes d'IA. Jusqu'à présent, la plupart des améliorations proviennent d'une utilisation plus efficace du calcul. Epoch a constaté que plus des trois quarts des progrès algorithmiques réalisés par le passé ont été utilisés pour compenser les insuffisances en matière de calcul. Si, à l'avenir, les données deviennent un goulot d'étranglement pour l'apprentissage de l'IA, une plus grande partie des progrès algorithmiques pourrait être axée sur la compensation des insuffisances en matière de données.

Si l'on réunit ces trois éléments, les experts, dont Sevilla, s'attendent à ce que les progrès de l'IA se poursuivent à un rythme effréné au moins pendant les quelques années à venir. Le calcul informatique continuera d'augmenter à mesure que les entreprises dépenseront plus d'argent et que la technologie sous-jacente deviendra moins chère. Les données utiles restantes sur l'internet seront utilisées pour entraîner les modèles d'IA, et les chercheurs continueront à trouver des moyens d'entraîner et de faire fonctionner des systèmes d'IA qui utilisent plus efficacement le calcul et les données. La poursuite de ces tendances décennales explique pourquoi les experts pensent que l'IA continuera à devenir plus performante.

Cette situation inquiète de nombreux experts. S'exprimant lors de l'audition de la commission sénatoriale, Amodei a déclaré que, si les progrès se poursuivent au même rythme, un large éventail de personnes pourrait être en mesure d'accéder à des connaissances scientifiques que même les experts d'aujourd'hui ne possèdent pas d'ici deux à trois ans grâce aux systèmes d'intelligence artificielle. Cela pourrait augmenter le nombre de personnes capables de « faire des ravages », a-t-il déclaré. « Je crains en particulier que les systèmes d'IA ne soient utilisés à grande échelle dans les domaines de la cybersécurité, de la technologie nucléaire, de la chimie et surtout de la biologie. »

IA omnipotente : les ombres d'une supériorité technologique en question

Le constat selon lequel l'intelligence artificielle (IA) surpasse l'homme dans plusieurs domaines, tel que présenté par l'étude de l'université de Californie à Berkeley, est indéniable et reflète l'évolution rapide de cette technologie. Cependant, cette avancée soulève des préoccupations légitimes qui méritent une analyse critique.

D'abord, la mention des domaines où l'IA surpasse l'homme, tels que la reconnaissance de l'écriture manuscrite ou la compréhension du langage, évoque des aspects spécifiques de tâches plutôt que des compétences intellectuelles globales. Il est crucial de noter que bien que l'IA excelle dans ces domaines particuliers, elle ne possède pas la compréhension holistique, la créativité, ou la conscience propre à l'humain.

En ce qui concerne les implications sociétales, l'automatisation accrue et les changements dans l'organisation du travail sont inévitables avec le progrès de l'IA. Cependant, le texte souligne également les avantages potentiels dans des domaines tels que la médecine et l'éducation. Néanmoins, les risques associés à la manipulation d'informations, la création d'armes autonomes, et d'autres applications potentiellement néfastes de l'IA soulignent la nécessité d'une régulation et d'une éthique strictes.

La question de savoir si l'IA pourrait dépasser l'intelligence humaine est l'un des débats centraux. Bien que certains experts redoutent une possible domination mondiale par l'IA, d'autres croient en son maintien sous le contrôle humain. Il est essentiel de souligner que la définition même de l'intelligence est complexe et que l'IA, malgré ses succès dans des domaines spécifiques, ne possède pas la compréhension émotionnelle, la conscience, ou l'éthique inhérentes à l'humanité.

Sources : University of California at Berkeley, United States Senate Committee on the Judiciary, ContextualAI

Et vous ?

Les conclusions de l'étude de l'université de Californie à Berkeley, affirmant que l'IA a dépassé l'homme dans diverses tâches, sont-elles pertinentes ?

Devrions-nous remettre en question la course à la supériorité de l'IA au détriment de notre autonomie ?

Voir aussi :

L'IA pourrait surpasser l'homme dans toutes les tâches d'ici 2047, selon une enquête auprès de 2,778 chercheurs

Une IA peut-elle devenir son propre PDG après avoir créé une entreprise ? C'est ce que pense le cofondateur de Google DeepMind

Un syndicat de musiciens de Hollywood menace de déclencher une grève générale si ses membres n'obtiennent pas des protections contre l'IA et des droits résiduels pour le streaming

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de sergio_is_back
Expert confirmé https://www.developpez.com
Le 28/02/2024 à 9:39
Déjà qu'à l'école on n'apprend plus à lire ni à écrire... Autant supprimer l'Education Nationale, ça fera des économies !
13  0 
Avatar de Eye_Py_Ros
Nouveau membre du Club https://www.developpez.com
Le 28/02/2024 à 13:19
Allez, j'ose contredire le pdg NVIDIA par ce que ce genre d'actu comment a être soûlante
Sur l'état actuel de l'art, le PDG d'Nvidia se trompe à 94%.
Sur le sujet faire monter l'action nvidia par contre.....

Qu'est-ce qui fait un développeur ce qu'il est ? Il y a développeur et développeur.
Un mauvais développeur c'est un mec qui pisse des lignes de code, un bon développeur , c'est un mec qui pisse des lignes de code, mais lui il le fait bien, il comprend ce qu'il fait.

Si c'était si simple, tout le monde pourrait le faire. Hormis la grammaire et le vocabulaire, que faut-il de plus pour aligner deux lignes de code ?
Personne ne s'est jamais posé la question ? Hormis aligner 10 lignes pour faire une simple action. Qu'est-ce qui permet de faire de grand logiciel ?
La capacité de la maîtrise du contexte et la capacité d'articuler un ensemble pour le rendre fonctionnel, soit la créativité.

Les modèles de langage sont intrinsèquement incapables en eux même uniquement de faire preuve de créativité ou alors elle est aussi limitée que ce que peut faire un moineau. Au mieux elle n'est capable que d'imitation.
La créativité est l'étape au-dessus de la capacité de maîtrise du contexte. On est tranquille ce n'est pas quelque chose que les simples réseaux de neurones peuvent faire.
Lorsque l'on aura produit un système capable de maîtriser le contexte et l'environnement dans lequel il évolue, alors, un très grand nombre de métiers dans le secteur tertiaire pdg compris sera grandement inutile et remplaçable par ce type d'automates.
Mais intrinsèquement la manière dont ils seront construits feront que leur créativité seront limité et ne seras pas capable de prendre des décisions avancées permettant "une croissance d'activité" en dehors du strict chemin sur lequel ils sont déjà lancés, donc une incapacité économiquement parlant de ce diversifier/d'innover donc à terme de survivre .

Une machine capable de faire preuve de conscience de contexte et d'environnement ainsi que de créativité sera plus proche d'une conscience artificielle que d'une IAG. C'est là que le risque cette pose. Celui de la SF et d'un dérapage possible.
En attendant, si c'était si simple que de coder, tout le monde pourrait déjà le faire, passer en n'importe quel langage logiciel vers un langage naturel ne rendra pas la chose plus simple en dehors du Scripting. Et ça ne fonctionnera pas mieux qu'aujourd'hui avec des gens qui ne savent pas concevoir de logiciel et qui nous font un patchwork de code spaghetti qui ne fonctionne pas.

Les GPU de nvidia ne sont pas magique et ne créer pas d'intelligence, on est en pleine mode des réseaux de neurones qui sont très gourmands en calcule pour leur formation, mais ce n'est ni ce type de matériel ni se type d'architecture qui donnera quelque chose capable de remplacer l'homme.

On aurait pu écrire comme titre. <Apprendre a écrire est inutile, dans 5 ans tous le monde aura des tablettes dans les mains>
Pas besoin de faire un dessin en quoi scripter un bout de code a la main en 5minutes reste toujours pratique que de devoir se connecter a internet pour accéder à un servie d'IA après s'être authentifié avec la double authentification de sa banque sur son smartphone 5G pour pondre un script que l'on va passer 2H a débugger pour traiter un csv qu'une simple boucle for aurait pu en venir à bout si c'était juste pour supprimer les espaces inutiles dans les cases et conversion de caractère pour le recensement des pingouins du Groenland. Ben quoi cet exemple vous paraît-il hors sol ?

Moi j'y vois un effondrement intellectuel de la société si on ne peut plus rien faire sans qu'une machine nous assiste parce que l'on nous a vendu que nous n'avions plus besoin de rien faire, parce demain il suffit d'acquérir la machine T2000 pour tout faire a notre place, et après demain il faudra acheter la T3000 qui fait des choses en plus que la T2000 ne savait pas faire comme remplir la nouvelle case du formulaire des impôts des machines autonomes T2000 que nous avons chez nous.

A force de faire monter les enchères, ce n'est pas dit q'Nvidia arrive a tenir la montgolfière action aussi haute. ce sera plutot le tobogan dans 5-10ans lorsque l'on se rendra compte qu'il y a mieux et moins gourmand que les réseaux de neurones, les gens aurons une montagne de GPU que personne ne sait quoi en faire et que l'on pourra même pas recycler pour autre chose...

"""Les développements en cours dans la filière du génie logiciel donnent-ils lieu à des inquiétudes légitimes quant à l’avenir des informaticiens humains dans la filière ?""
Les googlers et scripts kiddies pourront ce poser la question de si il ne serait pas mieux de réaliser une reconversion. Si c'est ça qui compose la "filière informatique" à 50%, je comprends mieux pourquoi une machine bug quand je la touche.

Les vrais concepteurs de logiciel sont tranquilles jusqu'à la retraite (si ce mot existe encore). Comprendre un métier et ensemble de besoins pour le traduire en un ensemble de spécification qui fonctionne sans bug ( le cœur de métier) qui dépasse le logiciel type calculette Windaube ne sont pas près d'être remplacé.
Il faudra toujours un humain pour faire ce que la machine ne sait pas faire, à minima saisir les specs (en français et pas en cromagnion). Le jour où l'on dépassera ce stade, l'intégralité de notre économie/finance n'aura plus aucun sens.

""Comment voyez-vous l'intelligence artificielle dans 5 à 10 ans ? Comme un outil ou comme un danger pour votre poste de développeur ?""

Sur les 50 prochaines années à venir l'IA ne restera qu'un outil, des percé et avancé dans la robotique aurons fait leur apparaîtrons.
Dans 30-40ans nous verrons des automates majors d'homme/conseiller clientèle dans les rayons des magasins.

Dans 50ans nous verrons des automates a grande autonomie, qui seront sur les chaines de production pour combler le manque de main-d'œuvre suite à la Grande Guerre qui aura lieu après la crise énergétique mondiale. On aura le droit au débat pour ceux qui sont "pro machine" et militeront pour que la ville et la vie soient conçues pour que les machines puissent se déplacer librement. Si entre temps le dérèglement climatique ne nous a pas déjà dézingué tous ça. On aura une crise ou des pirates rendrons des machines folles poursuivant des gens avec les flic qui leur courrons derrière avec leur taser....

Mais ce qui est sûr c'est que le monde de l'emploi à part des diminutions de besoin de personnelle dans certain secteurs, tant qu'il y aura des gens assis dans les bureaux de banque ou d'assurance, le monde de l'emploi ne sera jamais radicalement différent.
Des métiers apparaissent d'autres disparaissent mais sur le siècle. Jamais il n'y aura un secteur d'activité entier composé uniquement de machine ou supprimé du jour au lendemain. Sinon ça veut dire que ce secteur est complètement inutile depuis le début et tourne a l'aide de subvention (vous en connaissez ?).

Ceux qui dise que l'IA va tout remplacer sur terre sont eux même en train d'exercer une activité non essentielle. Passer la journée à remplir des cases Excel pour avoir un salaire pour se payer un costard et une Rolex pour vendre à un autre type ton remplissage de case Excel, je n'appelle pas ça un métier utile à l'humanité. (les vendeurs de formation sur YouTube ont déjà tout compris )
Si une machine peut fabriquer la Rolex et le costard, elle pourra remplacer le gars qui saisit les cases. Dans ce cas qui est inutile ?
L'homme ou le travail qu'il faisait.

Je finirai par : Doit-on exterminé les humains par ce qu'ils sont la preuve (dans le cadre artificiel choisi et créer pour cette étude) qu'ils ne servent à rien ? Ou n'avions nous pas créé un système qui part en roue libre et dont sa fonction optimale de créer de la richesse pour les humains ce conclu en : "il faut supprimer les humains de l'équation pour créer encore plus de richesse ?".

Le grand biais de la création : on créer un système au service de quelque chose, à force de l'optimiser on fini par retirer de l'équation le pourquoi du comment pour qui le service a été créé....
9  0 
Avatar de pboulanger
Membre éprouvé https://www.developpez.com
Le 28/02/2024 à 15:26
La bonne question : qui va valider que la réponse de l'IA n'est pas mauvaise? Les données qui ont servi à entraîner l'IA peuvent être mauvaises ou biaisées. L'IA a déjà démontré sa capacité dans des cas de droits à inventer des procès de toute pièce.

Quis custodiet ipsos custodes? [qui va surveiller les résultats de l'IA]
des développeurs compétents.

Comment devient-on un développeur compétent?
En travaillant sur des programmes et algorithmes (longtemps). Et, surtout, en apprenant de ses erreurs, etc...

Accessoirement un programme n'est pas juste du code: c'est un code qui répond à un besoin fonctionnel émis dans un domaine précis (bancaire, crash-test, calculateur de voiture, etc..). Il ne suffit pas de savoir écrire du code il faut aussi comprendre le contexte dans lequel il va être utilisé!
8  0 
Avatar de BugFactory
Membre chevronné https://www.developpez.com
Le 28/02/2024 à 13:18
Je serai à la retraite avant Java. Et avant Cobol aussi.
7  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 03/05/2024 à 0:45
7  0 
Avatar de berceker united
Expert éminent https://www.developpez.com
Le 28/02/2024 à 11:26
Et qui va faire évoluer les intelligences artificiel ? Une intelligence artificiel ?
6  0 
Avatar de ONTAYG
Membre éprouvé https://www.developpez.com
Le 28/02/2024 à 11:45
Citation Envoyé par berceker united Voir le message
Et qui va faire évoluer les intelligences artificiel ? Une intelligence artificiel ?
Skynet
5  0 
Avatar de commandantFred
Membre averti https://www.developpez.com
Le 28/02/2024 à 22:06
L'IA ne va pas discuter avec un expert métier pour comprendre un problème en profondeur.
L'IA (neurones) commet des erreurs dont on sait qu'on ne peut pas les filtrer.
L'IA a besoin de prompts. Une courte phrase suffit pour résoudre un problème simple mais il faut des milliers de lignes de prompt pour décrire un logiciel complexe.

Y' a-t-il des IDE spéciales pour rédiger les prompts ?
1. C'est quasi impossible
2. Ca va à l'encontre du principal atout des IA qui consiste à comprendre le langage naturel.

A la fin de ce raisonnement, on finit par rendre le texte du prompt aussi déterministe qu'un langage de programmation. Mais dans ce cas, gagnons du temps et utilisons de vrais langages longuement améliorés au fil des décennies.

L'implémentation de prompts intelligents sur les IDE aurait son utilité.

Mais remplacer un humain, c'est de la SF

J'adore la SF, j'écris de la SF, la SF, c'est génial.

Mais, monsieur le CEO de NVidia, écrire un programme et écrire un roman, ce n'est pas la même chose.
5  0 
Avatar de OuftiBoy
Membre actif https://www.developpez.com
Le 03/05/2024 à 3:59
C'est fou ce qui se passe en se moment. Il y a certainement quelque chose qui se trame dernière tous ça. Faire dépenser l'argent des autres, cela semble le jeu du moment. Mais qui sont les investisseurs derrière tout ceci ? Qui a les moyens d'investir de la sorte ?

Le monde s'éloigne de plus en plus de la réalité. Tous les pays sont endettés jusqu'au cou, mais qui "doit" combien et à "qui", je ne trouve pas l'info. L'économie mondial ressemble de plus en plus à un montage style système de Ponzi. Le capitalisme semble s'emballer dangereusement. Il n'est basé que sur la confiance. Si cette dernière s'écroule, c'est tout qui s'écroule. Et j'ai bien peur que cela finisse par arriver. Perso, je pense que le problème n'est pas de savoir "Si" ça va arriver, mais "Quand" cela va arriver.

Quand tout n'est plus basé que sur de la spéculation, et pas sur du concret, c'est inévitable.

Mais pour rester plus "terre à terre", quelles sont les compétences de ce Monsieur Altman ? Quel crédit donner à ses propos ? Connaît il seulement de quoi il parle ? De ce que j'ai compris, c'est juste un (très bon) vendeur. Mais même le meilleur des vendeurs ne peut pas vendre éternellement ce qui n'existe pas. Il faut avoir un sacré culot (et ego), pour se permettre de dire ce qu'il raconte. ChatGPT 4, c'est moins que rien dit-il, mais ChatGPT 5 ça sera de la balle, mais ce ne sera rien par rapport à ChatGPT 6. On peut aller loin comme ça. Je suis certains que ChatGPT 9672 se meilleur que ChatGPT 9671. Mais est-ce ça sera une AGI ? J'ai bien peur que non. Il faut être fou pour croire un seul instant que cela ne se terminera pas (très) mal.

De quoi parle-t-on ? Qui sait ne fusse que définir ce qu'est sensé être une AGI ? J'en suis incapable, mais si quelqu'un ici peut m'expliquer, je suis preneur. Mais bon, je me lance, avec mes faibles connaissance de petit humain que je suis. Si on veut accorder rien qu'un peu de crédibilité à la chose, il faut admettre qu'une AGI serait capable d'évoluer au moins au niveau d'un être humain. Quand on voit ce que l'humanité a fait, "l'AGI" ne pourra pas faire "mieux", ni "pire". Elle est juste bombardée d'informations existantes (vrai ou fausse), et tente de triturer ces "informations" pour donner réponde à une question. Je ne vois rien ressemblant à "l'intelligence humaine" (qu'on a déjà du mal a définir). L'AGI ne "pensera pas". Et Qu'est-ce que la pensée au fait ? Comment une "idée" vient-elle titiller notre "esprit" ? Pourquoi certains génies comme Einstein ont-ils "pensé" et "développé" leurs "idées/pensée" ?

Et puis, je pense que tout le monde sera d'accord pour dire que tous les "cerveaux" humains ne se valent pas. Le mien n'atteint pas la cheville, que dis-je, le bout de l'orteil, de celui des grands chercheurs des siècles passés. S'il n'y a pas deux cerveaux les même en ce bas monde, comment croire qu'une "AGI" serait "unique", "omnisciente", et capable d'avoir réponse à toute question ? Répondre correctement à des questions dont l'humanité a déjà la réponse, je ne vois pas où est le progrès ?

Le propre de l'homme, c'est son "esprit" de découverte, d'exploration, d'expérimentation, de conclusion. Et même dans ce cas, il faut admettre que l'homme ne progresse que par "tâtonnement", une "théorie" ne restant correcte et établie que jusqu'à preuve du contraire.

Si vous avez lu toute ma petite prose, il n'y a pas énormément de possibilités de conclure. Soit tous ces "devins" sont des Einsteins en culotte courte, ou des arnaqueurs "en col blanc".

Je me suis fais mon idée, chacun étant libre de choisir la sienne.

BàV et "Peace & Love"
5  0 
Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 12/04/2024 à 0:22
Le domaine de l'intelligence artificielle s'est creusé sur l'idée de faire des agents artificiels spécialisés variés et de les mettre ensemble pour faire un agent composite général. Cela n'a rien de loufoque à première vue, car c'est comme on fait des fonctions très spécialisées, qu'on combine ensuite pour faire des fonctions de plus haut niveau qui font des choses plus complexes.

Là où le bas blesse, c'est que même aujourd'hui, personne n'a créé la moindre fonction capable de faire tout et n'importe quoi. Et dans les faits, plus on monte en capacités diverses et variées, plus il faut introduire de "management". C'est le principe de "découper" la grosse brique monolithique en petits bouts (micro services) gérés de manière standardisée pour qu'on arrive à s'y retrouver (merci les ops). En bref, tout comme la fonction unique pouvant tout faire, l'IA générale comme combinaison d'IA spécifiques est un doux rêve théorique infaisable en pratique.

L'IA générale, qualifiée comme telle justement pour contrer cet aspect spécialisé, n'est cela dit pas un concept nouveau : il s'agit à la base d'une niche dans le domaine de l'IA, où on cherche justement à construire un agent non spécialisé. Par exemple l'intelligence pourrait être modélisée comme une capacité à maximiser les futurs possibles, quels qu'ils soient.

Ce qui se fait majoritairement dans le domaine de l'IA, à savoir de la performance spécialisée, c'est ce qu'on appelle de l'expertise (artificielle). Et je suis content de voir qu'on commence à s'en rendre compte avec des modèles comme Mixtral qui introduisent des concepts de "mixture of experts". Dans le temps on avait aussi ce qu'on appelait des systèmes experts (ça se fait encore mais ça n'est pas la tendance), mais le principe est d'incorporer dans la machine les connaissances d'un ou plusieurs experts, experts qu'on a cherché à mettre au placard avec les systèmes à apprentissage.

Aujourd'hui, le terme d'IA générale est sur le devant de la scène pour de mauvaises raisons : tout comme on fait l'amalgame entre intelligence et expertise depuis longtemps, on fait désormais l'amalgame entre IA générative et générale. Certes les systèmes actuels donnent l'impression de capacités générales, mais on voit vite que ce n'est pas le cas quand on joue un peu avec. Passé l'effet "wow !", on se rend vite compte qu'on a un générateur de texte sans cervelle : s'il a été entraîné sur les bonnes données, il régurgite ce qu'il a vu ailleurs (ce n'est pas pour rien que les procès liés à la propriété intellectuelle explosent), sinon il régurgite quelque chose en lien avec ce qu'on demande mais qui ressemble à ce qu'il a vu, quitte à générer des énormités. Énormités pour lesquelles il n'aura aucun mal à admettre ses erreurs (réponse cohérente dans un texte faisant état d'une erreur), mais sans pour autant les corriger si on recommence (réponse cohérente aussi : même garbage in, même garbage out).

Pour résumer, je suis d'accord que parler d'IA générale sur les technos d'aujourd'hui est un mensonge, mais au même titre que parler d'intelligence tout court l'est aussi depuis le début. Passé la frustration de la définition, c'est à prendre comme un buzzword marketing, et ça c'est la peine usuelle depuis que la publicité existe : faire passer des vessies pour des lanternes. C'est pourquoi on a les retours inverses que finalement on s'en fiche du terme employé, tant que ça sert (comprendre "tant que c'est bon pour le business"). La seule solution pérenne à ma connaissance est de développer son esprit critique pour ne pas tomber dans le panneau.
4  0