IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Microsoft annonce GPT-4, le modèle de langage, de type transformeur génératif pré-entraîné et assure qu'elle n'utilise pas les données de ses clients pour former ses modèles,
Il sera multimodal

Le , par Bruno

92PARTAGES

4  0 
La sortie de GPT-4 est imminente, comme l'a indiqué Andreas Braun, directeur technique de Microsoft Allemagne, lors d'un événement de lancement de l'IA le 9 mars 2023. L'intelligence artificielle et son application dans de multiples secteurs progressent à un rythme vertigineux compte tenu des opportunités infinies qu'elle offre aux entreprises de tous types et de tous secteurs. Jour après jour, nous assistons à l'émergence de nouveaux produits d'IA et d'apprentissage automatique sur le marché. Cependant, l'Intelligence Artificielle Multimodale est un grand trésor à découvrir, car il existe très peu de solutions professionnelles sur le marché capables de travailler dans ce domaine technologique extrêmement innovant.

GPT-4 arrive la semaine prochaine : lors d'un événement d'information hybride d'environ une heure intitulé AI in Focus - Digital Kickoff le 9 mars 2023, quatre employés de Microsoft Allemagne ont présenté en détail les grands modèles de langage (LLM) comme la série GPT en tant que force perturbatrice pour les entreprises et leur offre Azure-OpenAI.


ChatGPT par exemple est un LLM. Alors que la classe précédente de modèles d'intelligence artificielle était principalement constituée de modèles d'apprentissage profond (Deep Learning, DL), conçus pour apprendre et reconnaître des modèles dans les données, les LLM sont un nouveau type d'algorithme d'intelligence artificielle formé pour prédire la probabilité d'une séquence de mots donnée en fonction du contexte des mots qui la précèdent.


Ainsi, si les LLM sont formés sur des quantités suffisamment importantes de données textuelles, ils sont capables de générer de nouvelles séquences de mots jamais observées auparavant par le modèle, mais qui représentent des séquences plausibles basées sur le langage humain naturel.

Le fait que Microsoft peaufine la multimodalité avec OpenAI ne devrait plus être un secret

L'événement de lancement s'est déroulé en allemand, en présence du média Heise. Andreas Braun, CTO Microsoft Germany et Lead Data & AI STU, a mentionné de manière plutôt décontractée la sortie imminente de GPT-4. Le fait que Microsoft peaufine la multimodalité avec OpenAI ne devrait plus être un secret depuis la sortie de Kosmos-1 au début du mois de mars.

Microsoft a publié son document de recherche, intitulé Language Is Not All You Need: Aligning Perception with Language Models. Le modèle présente un grand modèle de langage multimodal (MLLM) appelé Kosmos-1. L'article souligne l'importance d'intégrer le langage, l'action, la perception multimodale et la modélisation du monde pour progresser vers l'intelligence artificielle. La recherche explore Kosmos-1 dans différents contextes.

Les grands modèles de langage (LLM) ont servi avec succès d'interface polyvalente pour diverses tâches de langage naturel [BMR+20]. L'interface basée sur les LLM peut être adaptée à une tâche tant que nous sommes capables de transformer l'entrée et la sortie en textes. Par exemple, l'entrée du résumé est un document et la sortie est son résumé. Les chercheurs peuvent donc introduire le document d'entrée dans le modèle de langage, puis produire le résumé généré.

KOSMOS-1 est un grand modèle de langage multimodal (MLLM) qui peut percevoir des modalités générales, suivre des instructions (c.-à-d., apprentissage à zéro coup) et apprendre en contexte (c.-à-d., apprentissage à quelques coups). L'objectif est d'aligner la perception avec les MLLMs, de sorte que les modèles soient capables de voir et de parler. Pour être plus précis, nous suivons METALM [HSD+22] pour former le modèle KOSMOS-1 à partir de zéro.

Le modèle montre des capacités prometteuses sur diverses tâches de génération en percevant des modalités générales telles que le NLP sans OCR, l'AQ visuelle, et les tâches de perception et de vision. L'équipe de recherche de Microsoft a également présenté le modèle à un ensemble de données du test de QI de Raven pour analyser et diagnostiquer les possibilités de raisonnement non verbal des MLLM. « Les limites de ma langue signifient les limites de mon monde », Ludwig Wittgenstein.

« Nous présenterons le GPT-4 la semaine prochaine et nous aurons des modèles multimodaux qui offriront des possibilités complètement différentes, par exemple des vidéos », a déclaré Braun. Le directeur technique a qualifié les LLM de « changeurs de jeu », car ils apprennent aux machines à comprendre le langage naturel, ce qui leur permet de comprendre de manière statistique ce qui n'était auparavant lisible et compréhensible que par les humains. Entre-temps, la technologie a tellement progressé qu'elle « fonctionne dans toutes les langues » : Vous pouvez poser une question en allemand et obtenir une réponse en italien. Grâce à la multimodalité, Microsoft(-OpenAI) « rendra les modèles complets ».

Qu'est-ce que l'IA multimodal ?

Les gens sont capables de comprendre la signification du croisement de différents types de données [texte, vidéo, image et audio] lorsqu'ils interagissent dans un contexte donné. Par exemple, si nous voyons une photographie d'un théâtre vide, nous pouvons interpréter que le spectacle est terminé ou qu'il n'y avait pas de public. En revanche, si nous voyons la même photographie accompagnée d'un texte indiquant « La pandémie vide les théâtres », nous comprenons qu'en raison de la crise sanitaire, les spectacles culturels ont été annulés. Cet exemple nous aide à comprendre le concept de multimodalité appliqué à l'intelligence artificielle.

Les systèmes d'intelligence artificielle multimodaux se caractérisent par le traitement d'ensembles multiples de différents types de données à l'aide de méthodes basées sur l'apprentissage afin de fournir des informations plus précises, plus véridiques et plus intelligentes. En d'autres termes, l'apprentissage multimodal est capable de consolider des données indépendantes provenant de plusieurs dispositifs d'intelligence artificielle en un seul modèle et de faire des prédictions automatiquement.

Cas d'utilisation de l'IA multimodale

L'application de l'IA multimodale est extensible à tous les secteurs d'activité. De plus en plus, nous constatons que les entreprises et organisations innovantes s'intéressent à ce domaine de l'intelligence artificielle et à la manière dont elles peuvent le mettre en œuvre dans leurs stratégies de transformation numérique.
L'industrie automobile, par exemple, travaille avec l'IA multimodale dans ses systèmes d'aide à la conduite, ses assistants IHM (interface homme-machine) dans les véhicules et ses systèmes de surveillance des conducteurs conçus pour détecter le sommeil, la fatigue, les distractions ou la perte d'attention.


Il s'agit de communiquer avec notre voiture par le biais de notre voix (traitement du langage naturel), de notre image (inspection visuelle) et de nos actions. D'autres secteurs importants où l'application de l'intelligence artificielle multimodale est prometteuse sont :

  • le secteur des soins de santé et l'industrie pharmaceutique, avec la possibilité d'établir des diagnostics automatiquement et immédiatement grâce à l'analyse multimodale des données d'image, des symptômes, des antécédents et de l'histoire des patients ;
  • le secteur des médias et du divertissement avec ses systèmes de recommandation, la publicité personnalisée et le remarketing.

Il ne faut pas oublier le domaine de la conception de produits ou toute autre activité dans laquelle l'association entre les concepts visuels et textuels est stratégique et fondamentale. En ce sens, la multimodalité permet de générer des images à partir de descriptions textuelles et, inversement, de catégoriser instantanément des images grâce à la reconnaissance visuelle.

On le voit, les applications dans l'industrie sont infinies. Il suffit d'imaginer pour désirer et trouver l'allié technologique parfait pour mettre en œuvre de nouveaux systèmes d'IA multimodale capables de révolutionner les processus de n'importe quelle entreprise.

Perturbation des entreprises par l'intelligence artificielle

Braun a été rejoint par Marianne Janik, PDG de Microsoft Allemagne, qui a parlé de manière générale de la perturbation des entreprises par l'intelligence artificielle. Janik a souligné le potentiel de création de valeur de l'intelligence artificielle et a parlé d'un tournant dans le temps. Il ne s'agit pas de remplacer des emplois, mais d'effectuer des tâches répétitives d'une manière différente. Un point qui est souvent oublié dans le débat public est que « nous, en Allemagne, avons encore beaucoup d'héritage dans nos entreprises » et « gardons de vieux trésors en vie pendant des années ».

Depuis des centaines d'années, les sociétés industrialisées craignent que les nouvelles technologies ne remplacent le travail humain et n'entraînent un chômage généralisé, « et ce malgré l'augmentation quasi continue des emplois et des salaires dans les économies capitalistes, déclare Marc Andreessen, membre de l'équipe d'étudiants de l'Université de l'Illinois qui a développé, en 1993, Mosaic, le premier navigateur web complet disponible pour les systèmes d'exploitation Mac OS, Windows et UNIX.. L'apocalypse de l'emploi est toujours au coin de la tête ; il suffit de demander aux luddites. »

Selon Marc Andreessen, nous nous dirigeons vers la troisième panique de ce type du nouveau siècle avec l'IA. « Normalement, j'avancerai les arguments habituels contre le chômage d'origine technologique. Mais je ne pense même pas que ces arguments soient nécessaires, puisqu'un autre problème bloquera d'abord les progrès de l'IA dans la majeure partie de l'économie. Il s'agit du problème suivant : l'IA est déjà illégale pour la majeure partie de l'économie, et le sera pour la quasi-totalité de l'économie. »

Les perturbations ne sont pas nécessairement synonymes de pertes d'emplois. Il faudra « de nombreux experts pour que l'utilisation de l'IA apporte une valeur ajoutée », a souligné Janik. Les descriptions d'emploi traditionnelles sont en train de changer et de nouvelles professions passionnantes émergent grâce à l'enrichissement des nouvelles possibilités. Elle recommande aux entreprises de créer des « centres de compétences » internes capables de former les employés à l'utilisation de l'IA et de regrouper les idées de projets.

En outre, le PDG a souligné que Microsoft n'utilise pas les données de ses clients pour former des modèles (ce qui, toutefois, ne s'applique pas ou ne s'est pas appliqué au moins à son partenaire de recherche OpenAI conformément à sa politique ChatGPT). ChatGPT a pris le monde d'assaut depuis son lancement, avec son habileté à écrire des essais, des articles, des poèmes et du code informatique en quelques secondes seulement.

ChatGPT est un robot à grand modèle de langage (ils permettent de prédire le mot suivant dans une série de mots) développé par OpenAI et basé sur GPT-3.5. Il a une capacité remarquable à interagir sous forme de dialogue conversationnel et à fournir des réponses qui peuvent sembler étonnamment humaines.

L'apprentissage par renforcement avec retour d'information humain (RLHF) est une couche supplémentaire de formation qui utilise le retour d'information humain pour aider ChatGPT à apprendre à suivre des instructions et à générer des réponses satisfaisantes pour les humains. ChatGPT a été créé par OpenAI, une société d'intelligence artificielle basée à San Francisco, connue pour son célèbre DALL-E, un modèle d'apprentissage profond qui génère des images à partir d'instructions textuelles appelées "prompts".

Janik a parlé d'une « démocratisation », ce qui, il est vrai, ne signifie que l'utilisation immédiate des modèles dans le cadre de la gamme de produits Microsoft, en particulier leur large disponibilité grâce à l'intégration de l'IA dans la plateforme Azure, Outlook et Teams.

Des cas d'utilisation déjà possibles aujourd'hui

Clemens Sieber (Senior AI Specialist) et Holger Kenn (Chief Technologist Business Development AI & Emerging Technologies, tous deux chez Microsoft Allemagne) ont présenté un aperçu de l'utilisation pratique de l'IA et des cas d'utilisation concrets sur lesquels leurs équipes travaillent actuellement, mais aussi des contextes techniques. Kenn a expliqué ce qu'est l'IA multimodale, qui peut traduire un texte non seulement en images, mais aussi en musique et en vidéo. Il a parlé des embeddings, qui sont utilisés pour la représentation interne du texte dans le modèle, en plus de la classe de modèle GPT-3.5.

Selon Kenn, l'IA responsable est déjà intégrée dans les produits Microsoft et « des millions de requêtes peuvent être mappées dans les API » via le nuage. La plupart des participants ont probablement été d'accord avec lui sur un point essentiel, à savoir qu'il est temps de commencer. Dans le domaine de la programmation en particulier, des modèles tels que Codex et Copilot facilitent la création de code standard.

Clemens Siebler a illustré par des cas d'utilisation ce qui est déjà possible aujourd'hui. Par exemple, les appels téléphoniques en speech-to-text pourraient être enregistrés et les agents d'un centre d'appel ne devraient plus résumer et taper manuellement le contenu. Selon Siebler, un grand client de Microsoft aux Pays-Bas, qui reçoit 30 000 appels par jour, pourrait ainsi économiser 500 heures de travail par jour.

Le prototype du projet ayant été créé en deux heures, un seul développeur a mis en œuvre le projet en quinze jours (plus un délai supplémentaire pour la mise en œuvre finale). Selon lui, les trois cas d'utilisation les plus courants sont la réponse à des questions sur les connaissances de l'entreprise qui ne sont accessibles qu'aux employés, le traitement de documents assisté par l'IA et la semi-automatisation par le traitement du langage parlé dans le centre d'appel et de réponse.

Interrogé sur la fiabilité opérationnelle et la fidélité des faits, Siebler a déclaré que l'IA ne répondra pas toujours correctement et qu'il est donc nécessaire de la valider. Microsoft est en train de créer des mesures de confiance pour résoudre ce problème. Les clients n'utilisent souvent l'IA que pour leurs propres ensembles de données, principalement pour la compréhension de la lecture et l'interrogation des données d'inventaire, où les modèles sont déjà assez précis.

Cependant, le texte généré par le modèle reste génératif et n'est donc pas facilement vérifiable. « Nous construisons une boucle de rétroaction autour du modèle avec des pouces en l'air et des pouces en bas », a déclaré Siebler - il s'agit d'un processus itératif. Il est intéressant de noter qu'aucun des quatre employés de Microsoft n'a commenté l'intégration de l'IA dans le moteur de recherche de l'entreprise, « le nouveau Bing ».

Microsoft et la réglementation matière d'IA

En ce qui concerne la réglementation, Microsoft Allemagne a adopté une position plus positive lors de l'événement de lancement de l'IA que la position de Microsoft et des États-Unis déposée à Bruxelles, soulignant en particulier les dangers de la réglementation pour l'innovation et la communauté de base. « L'open source doit bien sûr pouvoir prospérer », a déclaré Janik. Il s'agit incontestablement d'une préoccupation importante, mais son défenseur ne s'appelle probablement pas Microsoft.

Au sujet des tentatives d'influence sur les procédures législatives européennes, l'édition allemande de la MIT Technology Review avait rapporté début mars 2023, et il y a un an, un fournisseur de cloud français avait déposé une plainte antitrust pour pratiques anticoncurrentielles de la part des hyperscalers. Dans ce contexte, les engagements en matière d'équité, de sécurité, de droit à la vie privée et de fiabilité auraient pu constituer un message plus important pour les entreprises clientes et partenaires.

Microsoft a fait l'objet d’un grief antitrust en Europe concernant ses services de cloud computing. En début d'année 2022, la société française OVHcloud a déposé une plainte selon laquelle Microsoft abuse de sa position pour nuire à la concurrence, ajoutant aux récentes critiques sur les pratiques concurrentielles d'une société qui a largement évité l'examen réglementaire récent visant les géants technologiques rivaux.

Selon le billet de Nicole Dezen, les nouvelles conditions de licence permettront aux entreprises clientes de Microsoft d'intégrer plus facilement les logiciels Microsoft dans une infrastructure non Microsoft et de faire évoluer le coût et la taille de leurs systèmes Microsoft ou de ceux de leurs clients sur leur propre matériel.

La Chambre de commerce des États-Unis a appelé à une réglementation des technologies d'intelligence artificielle afin de s'assurer qu'elles ne nuisent pas à la croissance ou ne deviennent pas un risque pour la sécurité nationale, s'écartant ainsi de la position anti-réglementaire habituelle du groupe de lobbying des entreprises.

Les lecteurs intéressés par les activités des entreprises BigTech comme Microsoft autour de la loi sur l'IA à Bruxelles devraient se référer aux résultats de recherche du groupe de surveillance du lobbying Corporate Europe Observatory, en particulier son rapport The Lobbying Ghost in the Machine datant de la fin février 2023. En coulisses, BigTech semble vouloir préserver ses modèles d'IA générative d'un engagement trop fort en faveur de la sécurité de l'IA et des normes juridiques européennes, et plutôt transférer les obligations réglementaires et la responsabilité de tout dommage aux fournisseurs et groupes d'utilisateurs européens.

Il est important d'en tenir compte, car les sanctions contractuelles prévues par la prochaine loi sur l'IA pour l'utilisation de l'IA à haut risque (qui inclut encore actuellement ChatGPT and Co.) pourraient frapper durement une entreprise, avec jusqu'à 30 millions d'euros ou 6 pour cent du chiffre d'affaires annuel.

Les détails peuvent être trouvés dans le projet de règlement accessible au public, par exemple à l'article 71 sous « Sanctions ». L'événement d'information de Microsoft n'était cependant pas une conférence de presse sur ce sujet, mais visait probablement davantage les clients commerciaux potentiels ou existants ainsi que les futures entreprises partenaires.

Source : Microsoft Germany

Et vous ?

Quel est votre avis sur le sujet ?

Voir aussi :

La Chambre de commerce des États-Unis demande une réglementation de l'IA, pour que l'IA ne nuise pas à la croissance ou ne devienne pas un risque pour la sécurité

Les pasteurs utiliseraient ChatGPT pour écrire des sermons, alors que certains affirment que l'outil d'IA ne reproduit pas la passion d'une véritable prédication

ChatGPT a réussi de justesse à un examen médical important, un exploit historique pour l'IA, mais elle serait encore mauvaise en mathématiques

Pourquoi l'IA ne provoquera pas de chômage ? L'apocalypse de l'emploi est toujours au coin de la tête, « il suffit de demander aux luddites », estime Marc Andreessen

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de epsilon68
Membre expérimenté https://www.developpez.com
Le 19/03/2023 à 10:38
les quelques questions que j'ai pu poser à chat gpt ont donné des réponses fausses et / ou avec des fonctions qui n'existaient pas. Non je ne comprends donc pas l'engoument pour ce truc, sachant qu'on ne peut pas avoir confiance dans les réponses, enfin pour notre cas de programmeurs, la recherche et analyse sont encore plus mises en avant je trouve.
7  3 
Avatar de totozor
Membre expert https://www.developpez.com
Le 16/03/2023 à 7:34
Citation Envoyé par Locabimp Voir le message
C'est juste énorme, c'est une révolution pour moi. Que ce soit au niveau d'écriture qui peut poser prochainement des soucis de plagiat mais Mid journey sur discord les image c'est juste formidable magnifique je pourrais pas dire plus
J'ai quelques amis qui disaient pareil pour Mid Journey en mettant leur requête et les images résultantes, que je trouvais mauvaises et qu'ils trouvaient bien.
J'ai donc proposé de faire un jeu, ils montrent le résultat, on doit trouver la requête (quand la requête était trop précise on demandait de la fournir en texte à trou en même temps que les images), ils se sont rendu compte à quel point il n'est pas si efficace, surtout pour les "à la façon de ....".
Par contre j'ai vu un dessinateur utiliser Mid Journey pour ses retouches et il m'a scié.

Je penses que la vraie conclusion est que bien utiliser ça fait des miracles mais pour le gars moyen le résultat semble satisfaisant mais il est médiocre.
2  0 
Avatar de GlenLB
Nouveau membre du Club https://www.developpez.com
Le 16/03/2023 à 14:16
De belles avancées avec cette nouvelle version GPT-4 !
Néanmoins, le bot ne peut toujours pas accéder à internet en live : ses données restent bloquées à fin 2021 comme expliqué ici... ce qui déçoit une partie des utilisateurs qui s'attendait à de telles mises à jour avec GPT-4 !
La nouvelle fonction de compréhension des images est tout de même bluffante ! Certains ont par exemple envoyé des photos de l'intérieur de leur frigo à ChatGPT : il leur donne des recettes possibles avec les ingrédients dans le frigo
De nombreux nouveaux usages vont être possibles avec cette nouvelle compréhension des images de GPT-4 !
2  0 
Avatar de iubito
Membre éclairé https://www.developpez.com
Le 20/03/2023 à 1:29
Bonjour,

J'ai un peu essayé ChatGPT ces derniers mois.

Il ne comprend pas le concept de contrepèterie : Mammouth écrase les prix --> Les prix sont écrasés par Mammouth.
Il refuse de donner les paroles d'une chanson de Brassens qui voit passer les cons sous son balcons, parce que "cons" c'est vraiment offensant.

Quand on commence à lui demander des choses dans nos domaines d'expertise, ça se gâte.

Au sujet d'une chanson traditionnelle et de sa danse, il m'a donné une réponse très large (qui peut répondre à toutes les danses trad du pays, donc aucun intérêt), et avec des fautes d'orthographe (du genre : « une musique de danse (comprendre, à danser), accompagnée de instruments de musique d'accordéon... ») et même en citant un instrument non utilisé dans le pays en question.

Et pour le dev, puisque c'est le sujet du forum, je lui ai demandé l'algorithme de rythme euclidien en Java et en Lua. J'ai eu une belle réponse avec des explications, mais un algorithme totalement buggé. Je suis totalement rassuré sur mon métier, j'ai réfléchi, j'ai écrit l'algorithme qui fonctionne, en moins de lignes, et je ne vais surtout pas lui dire comment j'ai fait

Quant à créer une application sur un site web en précisant ce qu'elle doit pouvoir faire, il m'a donné les très grandes lignes basiques (il faut créer une page de connexion, un espace utilisateur), mais m'a aussi donné toutes les étapes comme apprendre PHP, la doc MySQL, le téléchargement d'Apache... et zéro ligne de code.
Pas de liens vers des services d'authentification, pas de liens vers des gabarits html...

Je lui ai aussi demandé comment créer une fonction personnalisée dans Google Sheet, et là, pour le coup, il m'a répondu tout ce que j'ai pu trouver sur internet. Il a tourné en rond comme moi car tous les tutos disent de passer par une option d'un menu... qui n'apparaît pas ou plus.
Il est aussi teubé que moi sur le sujet, incapable de répondre à la problématique « comment faire quand l'option n'est pas présente ? », « pourquoi cette option est absente ? », « différence entre une bibliothèque et un module complémentaire ? »
Donc je me suis débrouillé en répétant du code dans plusieurs cellules.
... et aujourd'hui j'ai googlé et j'ai trouvé les fonctions nommées, une nouvelle fonctionnalité
3  1 
Avatar de HaryRoseAndMac
Membre extrêmement actif https://www.developpez.com
Le 19/03/2023 à 12:04
J'ai utilisé GP3 pendant quasiment un mois
Et là, GPT4 durant une semaine non stop.

Conclusion : je ne vois AUCUNE différence entre les deux.
J'en suis même à douter que GPT4 ne soit pas un GPT3 déguisé.

Il fait les mêmes choses que GPT3 : au bout de 3 conversations ça a complètement oublié le fil et il faut tout resynthétiser, sur des sujets complexes c'est totalement largué, ...

C'est un très, très beau coup de com. ça c'est certains, par contre je vois arriver le carnage des employeurs qui pensent remplacer les devs par des gens au SMIC qui n'ont pas les capacités intellectuelles pour être développeur mais vont être expert chatGPT.

Et quand j'écris carnage, c'est au sens premier du termes vu que j'ai eu à vivre ça avec un client.
Les seuls gagnants dans cette histoire, vont être les vrais développeurs séniors avec réellement le cerveau pour faire ce job, qui vont être à des TJM records.
Je vois d'ici que 2000 euros par jour va devenir une norme, puisqu'ils vont remplacer tous les juniors.

On est à un tournant ou, si un revenu universel ne se met pas en place, dans moins de 2 ans, ça va être chômage record, pas seulement en France mais partout sur le globe et des guerres civiles à n'en plus qu'en faire.
5  5 
Avatar de Nym4x
Membre averti https://www.developpez.com
Le 05/04/2023 à 22:04
Ok. et merci Claude quoi… Et 3 jour pour faire la daube que j’ai vu sur la vidéo? 😂 Normalement avec l’ia ça devrait prendre 1h max. Non parce qu’ avec dreams sur ps4 sans IA on peut faire ça quand même :
0  0 
Avatar de fodger
Membre confirmé https://www.developpez.com
Le 13/04/2023 à 10:41
Si ce sont des QCM, ça n'a aucune valeur.

L'IA se contente de rechercher les réponses.
0  0 
Avatar de walfrat
Membre émérite https://www.developpez.com
Le 13/04/2023 à 12:48
Citation Envoyé par totolehero777 Voir le message
On est encore loin d'avoir qq chose qui est capable de raisonnement :

=> Question à ChatGPT :

Que va afficher ce programme ?

public static void main(String[] args) {
System.out.println(obfuscate("ChatGPT, n'est pas capable de prédire l'exécution de 2 lignes de code !");
}

private static String obfuscate(String input) {
return input.replace('o', 'Z').replace('e', 'I');
}

=> Réponse incohérente, erreur grossière :

Le programme va afficher la phrase suivante :

ChatGPT, n'IZt pas capablZ de prZdIrir l'ZxZcution dZ 2 lignZs de cZdZ !

La méthode obfuscate prend une chaîne de caractères en entrée et remplace toutes les occurrences du caractère o par Z et toutes les occurrences du caractère e par I. Dans le main, la méthode obfuscate est appelée avec la chaîne de caractères "ChatGPT, n'est pas capable de prédire l'exécution de 2 lignes de code !" en tant qu'argument. Le résultat obtenu après l'appel de la méthode obfuscate est ensuite affiché à l'écran avec System.out.println.

=> Impossible de lui faire comprendre et corriger sa faute
ChatGPT n'est pas un outil fait pour interprété du code à la base, donc des trucs en deux lignes de codes que chatGPT fails, on peut en trouvé à la pelle sans soucis. Qu'il se comporte par exemple comme un non informaticien qui va potentiellement considéré que les e avec accents sont aussi remplacés n'est pas scandaleux. Il reste le "s" de "est" transformé en 'Z' certes. C'est trop facile, sans avoir besoin d'être très futé, de prendre en défaut chatGPT.
0  0 
Avatar de totolehero777
Membre du Club https://www.developpez.com
Le 13/04/2023 à 14:37
walfrat, c'était juste pour souligner que ChatGPT fait le buzz en ce moment, mais qu'on est très loin d'avoir un système capable de "comprendre" et d'avoir un minimum d'intelligence/raisonnement. Il écrit des mots sans rien y comprendre.

Ici un cas concret : je lui donne un "programme" de deux lignes de code. Il est capable de l'expliquer (ce qui est déjà impressionnant) mais il est incapable d'appliquer la règle qu'il énonce, aussi simple soit elle.
0  0 
Avatar de Dgamax
Membre averti https://www.developpez.com
Le 05/05/2023 à 15:54
Citation Envoyé par totolehero777 Voir le message
walfrat, c'était juste pour souligner que ChatGPT fait le buzz en ce moment, mais qu'on est très loin d'avoir un système capable de "comprendre" et d'avoir un minimum d'intelligence/raisonnement. Il écrit des mots sans rien y comprendre.

Ici un cas concret : je lui donne un "programme" de deux lignes de code. Il est capable de l'expliquer (ce qui est déjà impressionnant) mais il est incapable d'appliquer la règle qu'il énonce, aussi simple soit elle.
GPT a été conçu à la base pour prédire le prochain mot donc tu as tout à fait raison, il ne comprend pas ce qu'on lui dit ni ce qu'il dit.

En tout cas J'ai testé ton example avec GPT-4, c'est pas encore ça et il a fait attention à la case.

0  0