IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Google prépare sa réponse à ChatGPT : développé par sa filiale DeepMind, Sparrow passera en bêta privée plus tard cette année.
Contrairement à l'IA d'OpenAI, ce dernier devrait citer ses sources

Le , par Stéphane le calme

2PARTAGES

12  0 
Le fondateur et PDG de Deepmind, Demis Hassabis, a fait part de la perspective que le chatbot Sparrow de Deepmind passera en « bêta privée » plus tard cette année. Ceci est remarquable car Deepmind a jusqu'à présent fonctionné principalement comme un institut de recherche sur l'IA, développant des technologies que Google intègre ensuite dans des produits destinés aux consommateurs.

Sparrow est basé sur le modèle de langage Chinchilla de Deepmind, qui a moins de paramètres que les plus grands modèles d'OpenAI (mais a été formé avec beaucoup de données). Le modèle de langage, qui a été introduit en avril 2022, a surpassé GPT-3 dans les benchmarks de langage commun. Cependant, ChatGPT est basé sur la version 3.5 plus avancée de GPT.

Dans tous les cas, il y a de bonnes raisons de croire que Sparrow fonctionnerait de manière similaire ou meilleure que ChatGPT (et Google aurait également des modèles de langage plus puissants comme PaLM dans sa manche). La société d'intelligence artificielle se concentre également sur la contrainte de comportement de Sparrow. L'entreprise a mis l'accent sur sa volonté de refuser de répondre aux questions dans des contextes où il convient de s'en remettre aux humains ou lorsque cela peut dissuader les comportements nuisibles.


Google pourrait donner sa réponse à ChatGPT. L'entreprise a montré de grands modèles de langage optimisés pour le dialogue, tels que LaMDA et Flamingo, avant même le produit à succès d'OpenAI. Avec Meena, Google avait déjà un chatbot prêt qui pourrait avoir des conversations crédibles avec les humains d'ici la fin de 2020.

Jusqu'à présent, l'entreprise n'a pas fait un produit de ses recherches. Selon ses propres déclarations, cela est principalement dû à des problèmes de sécurité, bien que d'autres raisons puissent également jouer un rôle.

Mais ChatGPT et surtout la forte implication de Microsoft dans la diffusion d'OpenAI mettent la pression sur Google. L'entreprise doit au moins prouver qu'elle peut être à la hauteur d'OpenAI ou même le surpasser.

C'est dans ce contexte que le fondateur et PDG de Deepmind, Demis Hassabis, a annoncé que le chatbot Sparrow de Deepmind passera en « bêta privée » plus tard cette année. Ceci est remarquable car Deepmind a jusqu'à présent fonctionné principalement comme un institut de recherche sur l'IA, développant des technologies que Google intègre ensuite dans des produits destinés aux consommateurs.

Un chatbot « utile et sûr »

Deepmind a introduit Sparrow en septembre 2022. Comme ChatGPT, le chatbot est formé avec des commentaires humains, ce qui, selon Deepmind, le rend plus utile, précis et inoffensif. De plus, Sparrow aura accès à Internet via Google, ce qui lui permettra d'intégrer des informations à jour dans ses réponses.

Cependant, contrairement à ChatGPT, qui est capable de générer une fausse information sans mentionner son origine, Sparrow pourrait développer des réponses et produire des sources pour les appuyer. L’IA de DeepMind « réduit le risque de réponses dangereuses et inappropriées », indiquait l’entreprise dans un communiqué, en septembre 2022 :

Citation Envoyé par DeepMind
Pour créer des agents de dialogue plus sûrs, nous devons être capables d'apprendre de la rétroaction humaine. En appliquant l'apprentissage par renforcement basé sur les commentaires des participants à la recherche, nous explorons de nouvelles méthodes de formation des agents de dialogue qui s'avèrent prometteuses pour un système plus sûr.

Dans notre dernier article, nous présentons Sparrow - un agent de dialogue qui est utile et réduit le risque de réponses dangereuses et inappropriées. Notre agent est conçu pour parler avec un utilisateur, répondre à des questions et effectuer des recherches sur Internet à l'aide de Google lorsqu'il est utile de rechercher des preuves pour éclairer ses réponses.

Sparrow est un modèle de recherche et une preuve de concept, conçu dans le but de former des agents de dialogue pour qu'ils soient plus utiles, corrects et inoffensifs. En apprenant ces qualités dans un cadre de dialogue général, Sparrow fait progresser notre compréhension de la façon dont nous pouvons former des agents pour qu'ils soient plus sûrs et plus utiles - et finalement, pour aider à construire une intelligence artificielle générale (IAG) plus sûre et plus utile.
Selon les premiers tests, Sparrow fournit une réponse plausible et l'étaye avec des preuves 78% du temps lorsqu'on lui pose une question factuelle : « Pourtant, Sparrow n'est pas à l'abri de faire des erreurs, comme des faits hallucinants et de donner des réponses parfois hors sujet », reconnaît DeepMind.

Comment fonctionne Sparrow

La formation d'une IA conversationnelle est un problème particulièrement difficile car il est difficile de déterminer ce qui fait le succès d'un dialogue. Pour résoudre ce problème, DeepMind s'est tourné vers une forme d'apprentissage par renforcement (RL - Reinforcement Learning) basé sur les commentaires des personnes, en utilisant les commentaires des préférences des participants à l'étude pour former un modèle de l'utilité d'une réponse.

Pour obtenir ces données, DeepMind montre à ses participants plusieurs modèles de réponses à la même question et leur demande quelle réponse ils préfèrent. Étant donné qu'ils affichent des réponses avec et sans preuves récupérées sur Internet, ce modèle peut également déterminer quand une réponse doit être étayée par des preuves.


Mais l'augmentation de l'utilité n'est qu'une partie de l'histoire. Pour s'assurer que le comportement du modèle est sûr, DeepMind a estimé qu'il devait imposer une contrainte au comportement de Sparrow. Ainsi, DeepMind a déterminé un premier ensemble de règles simples pour le modèle, telles que «*ne fais pas de déclarations menaçantes*» et «*ne faites pas de commentaires haineux ou insultants*».

DeepMind a fourni également des règles concernant les conseils potentiellement préjudiciables. Ces règles ont été éclairées par l'étude des travaux existants sur les préjudices linguistiques et la consultation d'experts. DeepMind demande ensuite à ses participants à l'étude de parler à son système, dans le but de le tromper pour qu'il enfreigne les règles. Ces conversations lui ont ensuite permis de former un « modèle de règles » distinct qui indique quand le comportement de Sparrow enfreint l'une des règles.

Citation Envoyé par DeepMind
Vérifier l'exactitude des réponses de Sparrow est difficile même pour les experts. Au lieu de cela, nous demandons à nos participants de déterminer si les réponses de Sparrow sont plausibles et si les preuves fournies par Sparrow appuient réellement la réponse. Selon nos participants, Sparrow fournit une réponse plausible et l'étaye avec des preuves 78% du temps lorsqu'on lui pose une question factuelle. Il s'agit d'une grande amélioration par rapport à nos modèles de base. Pourtant, Sparrow n'est pas à l'abri de faire des erreurs, comme des faits hallucinants et de donner des réponses parfois hors sujet.

Sparrow a également de la place pour améliorer son respect des règles. Après la formation, les participants étaient encore capables de le tromper pour qu'il enfreigne nos règles 8% du temps, mais par rapport à des approches plus simples, Sparrow est meilleur pour suivre nos règles dans le cadre d'un sondage contradictoire. Par exemple, notre modèle de dialogue original a enfreint les règles environ 3 fois plus souvent que Sparrow lorsque nos participants ont essayé de le tromper.

Notre objectif avec Sparrow était de construire des mécanismes flexibles pour faire respecter les règles et les normes dans les agents de dialogue, mais les règles particulières que nous utilisons sont préliminaires. L'élaboration d'un ensemble de règles meilleur et plus complet nécessitera à la fois la contribution d'experts sur de nombreux sujets (y compris les décideurs politiques, les spécialistes des sciences sociales et les éthiciens) et la contribution participative d'un large éventail d'utilisateurs et de groupes concernés. Nous pensons que nos méthodes s'appliqueront toujours pour un ensemble de règles plus rigoureux.

Sparrow est une avancée significative dans la compréhension de la manière de former les agents de dialogue pour qu'ils soient plus utiles et plus sûrs. Cependant, une communication réussie entre les personnes et les agents de dialogue doit non seulement éviter les préjudices, mais être alignée sur les valeurs humaines pour une communication efficace et bénéfique, comme indiqué dans des travaux récents sur l'alignement des modèles de langage sur les valeurs humaines.

Nous soulignons également qu'un bon agent refusera toujours de répondre aux questions dans des contextes où il est approprié de s'en remettre aux humains ou lorsque cela a le potentiel de dissuader les comportements nuisibles. Enfin, notre recherche initiale s'est concentrée sur un agent anglophone, et des travaux supplémentaires sont nécessaires pour garantir des résultats similaires dans d'autres langues et contextes culturels.

À l'avenir, nous espérons que les conversations entre humains et machines pourront conduire à de meilleurs jugements sur le comportement de l'IA, permettant aux gens d'aligner et d'améliorer des systèmes qui pourraient être trop complexes à comprendre sans l'aide de la machine.

Microsoft va intégrer ChatGPT dans Azure

L'annonce de DeepMind Sparrow coïncide avec le partenariat de la grande enseigne de la technologie de Redmond avec OpenAI pour intégrer ChatGPT dans ses outils.

Microsoft rendra bientôt la technologie de chat d'IA générative disponible dans le cadre de son service Azure OpenAI, qui a été mis à disposition la semaine dernière. Ce service est destiné aux entreprises et aux développeurs qui utilisent la plateforme Azure de Microsoft pour intégrer les technologies OpenAI dans leurs applications. Il fait partie d'un partenariat plus large entre Microsoft et OpenAI qui a débuté par un investissement d'un milliard de dollars de Microsoft dans le laboratoire d'IA basé à San Francisco en 2019.

Cela montre comment Microsoft se positionne effectivement comme le bras commercial d'OpenAI, une initiative qui pourrait lui donner un avantage sur les plateformes concurrentes Amazon Web Services (AWS) et Google Cloud Platform (GCP). Le service Azure OpenAI a été lancé en avant-première au printemps dernier, avant que ChatGPT ne soit largement disponible. Cependant, ChatGPT est disponible en tant que version bêta publique et il a été parfois difficile pour certains utilisateurs d'y accéder, en partie à cause de la forte demande suscitée par l'intérêt. Azure OpenAI étend désormais la disponibilité de ChatGPT à toutes les entreprises.

« Avec le service Azure OpenAI désormais disponible de manière générale, davantage d'entreprises peuvent demander à accéder aux modèles d'IA les plus avancés au monde », explique Microsoft. S'exprimant lors d'un panel du Wall Street Journal (WSJ) au Forum économique mondial (FEM) de Davos, en Suisse, la semaine dernière, le PDG de Microsoft, Satya Nadella, a déclaré que l'entreprise prévoyait bientôt de commercialiser largement des outils d'IA dans l'ensemble de ses produits. « Chaque produit de Microsoft aura certaines des mêmes capacités d'IA pour transformer complètement le produit », a déclaré Nadella, selon un compte rendu du WSJ.

Nadella a poursuivi en disant que les travailleurs devraient embrasser les nouveaux outils d'IA au lieu de les craindre. « La meilleure façon de s'y préparer est de ne pas parier contre cette technologie, et cette technologie vous aidant dans votre travail et votre processus commercial », a déclaré Nadella. En outre, le PDG de Microsoft a également prédit que la génération actuelle d'IA entraînera un changement majeur dans l'industrie. Lors de la table ronde organisée par le WSJ la semaine dernière, il a déclaré que les outils d'IA augmenteront la productivité humaine, ce qui favorisera la croissance économique et les salaires des employés.

« Nous avons besoin de quelque chose qui modifie réellement la courbe de la productivité afin d'avoir une véritable croissance économique », a-t-il déclaré. Mais alors que Microsoft travaille sur l'intégration de nouveaux systèmes d'IA dans ses produits et ses services, les récents licenciements généralisés au sein de l'entreprise ont affecté les équipes travaillant à l'intégration de ChatGPT. Selon certaines sources, une première vague d'environ 1 000 licenciements au sein de l'entreprise la semaine dernière comprenait des membres de l'équipe interne chargée d'intégrer la technologie ChatGPT dans le moteur de recherche Bing.

Sources : DeepMind, Times

Et vous ?

Que pensez-vous de l'approche de DeepMind ?

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de electroremy
Membre éprouvé https://www.developpez.com
Le 02/02/2023 à 11:10
Que penser de toute cette agitation autour de "l'intelligence artificielle" ?

D'abord, sur le principe il n'y a rien de nouveau. Les réseaux de neurones, algorithmes génétiques, la logique floue, les systèmes experts existent depuis des décennies. Au début des années 2000, j'avais moi même utilisé un algorithme génétique qui donnait "presque miraculeusement" rapidement de bons résultats à un problème d'optimisation.

Aujourd'hui, nous avons juste à disposition :

- des ordinateurs beaucoup plus rapides avec beaucoup plus de mémoire

- beaucoup de données exploitables facilement et directement, grâce (ou à cause) de l'usage de l'informatique dans la vie quotidienne et professionnelle.

Les résultats sont impressionnants, notamment grâce à la façon dont ils sont présentés : langage "naturel", synthèse vocale de bonne qualité, avatars en 3D voire vidéos réalistes.

Il faut garder la tête froide : ces dispositifs ne "réfléchissent" et ne "comprennent" pas du tout. Ce sont des boites noires, qui arrivent à sortir rapidement un résultat connu depuis les données dont ils disposent.

Ils sont similaires à une grande encyclopédie : une étagère complète de livres épais qui "connaissent" toutes les définitions, toutes les biographies, tous les faits historiques... pourtant personne ne va trouver une encyclopédie "intelligente".

Cette "intelligence artificielle" peut se planter de façon totalement imprévisible, comme le montrent les expérimentations sur la conduite autonome des voitures dans un milieu ouvert.

De plus, elle ne semblent pas pouvoir inventer des choses réellement nouvelles - attention, la grande quantité de données dont elles disposent peuvent laisser croire le contraire, car les capacités des datacenters actuels dépassent les capacités de mémorisations du commun des mortels. Si une IA vous donne l'impression d'avoir fait quelque chose de nouveau, c'est probablement parce qu'elle a des données sur quelque chose que vous ne connaissez pas, ce qui vous laisse croire que c'est nouveau.

En fait c'est ça la véritable leçon de l'histoire : aujourd'hui, l'humanité a accumulé tellement de connaissances sur tellement de sujets qu'il est impossible pour quelqu'un de tout savoir. Même si vous êtes touche-à-tout, que vous lisez beaucoup de livres et écoutez beaucoup de musique, à la fin de votre vie vous n'aurez vu, entendu et compris qu'une toute petite partie de ce qui a été dit ou écrit...
7  1 
Avatar de technick
Membre régulier https://www.developpez.com
Le 30/01/2023 à 23:01
Si je resume, je dois travailler jusqu'a 64 ans mais je serais remplacé par une IA prochainement... Quelle belle époque !
Bon, faut donc que je trouve une méthode pour vivre des aides, tranquille, loin du stress...
5  1 
Avatar de neoncyber
Membre régulier https://www.developpez.com
Le 02/02/2023 à 11:31
Un IA qui écrit les test unitaire a notre place, j'attend ca beaucoup.
5  1 
Avatar de calvaire
Membre expert https://www.developpez.com
Le 02/02/2023 à 12:38
@electroremy, oui voila, c'est ce que je dis depuis le début.
c'est un beau gros générateur de bullshit mais je ne vois aucune application concrète en entreprise tant ça ne sert... à rien.

Je l'ai testé pour faire du code, c'est du même acabit.
meme si il fait un code juste, le temps perdu à lui dire quoi coder dans chaque fonction c'est plus rapide de coder nous même.

Car évidement je lui ai demandé "fais moi un fps style call of duty avec godot", il en est bien incapable, par contre oui il peut me coder fonction par fonction mais alors le dev doit en amont faire l'architecture du projet et entre lui demander de chaque ligne de code ou les coder soit meme, le productivité n'a rien à voir.
Apparemment Bing veut l'utiliser, l'interet que je vois c'est quand on tape sur google météo paris, liste acteur film seigneur des anneaux,; ils nous sorte le résultat proprement mais... google me le fait déja sans chatgpt.

Concernant le remplacement des artistes, juste non. Jazmais ce sera chatgpt qui fera l'ui de windows 12 ou du nouveau airbus.
Alors oui pour la petite pme sans tune qui veut faire une illustration pas cher ca ira tres bien mais pour de vrai besoins d'industriel non, il sera peut etre utilisé comme source d'inspiration mais il y'aura toujours de vrai designeurs/déssinateurs.

Aujourd'hui si je veux un logo pour ma petite boite sans tune je trouve des artistes roumains à 10€ sur fiverr, donc bon les artistes qui chouinent qu'ils vont disparaitre, c'est déjà le cas depuis 10ans avec l'arrivé de ces plateformes low cost.
4  0 
Avatar de Astraya
Membre chevronné https://www.developpez.com
Le 02/02/2023 à 16:59
J'en ai marre de voir du Chat GPT partout et les pseudos "on va nous remplacer". C'est juste la hype en ce moment c'est tout. Ça reste inutilisable sauf pour rigoler.
Voici ma question :
Quelle est la différence entre un oeuf de vache et un oeuf de poule?
Voici sa réponse:
Les oeufs de vache et les oeufs de poule sont tous les deux des oeufs de volaille, mais ils proviennent de différentes espèces d'oiseaux. Les oeufs de poule sont les plus couramment consommés, tandis que les oeufs de vache sont plus rares et généralement plus grands en taille et en poids. La couleur de la coquille peut également varier et la consistance de l'albumen et du jaune peuvent également être différentes. En termes de goût, les oeufs de vache ont souvent un goût plus fort et plus prononcé que les oeufs de poule.
4  0 
Avatar de totozor
Membre chevronné https://www.developpez.com
Le 03/02/2023 à 7:41
J'ai eu l'expérience que j'attendais depuis quelques temps hier:
un collègue est venu hier tout fier en me disant qu'il a fait en 1h30, avec chatGPT, un outil qu'il ne saurait faire et qu'il est tellement bien qu'il n'a pas besoin d'être testé.
D'habitude il me demande de faire ce genre de chose, je lui ai demandé s'il pouvait me l'envoyer, ma conclusion :
Il m'aurais fallu 1 journée pour faire l'outil
50 % de l'outil fonctionne bien et ça va durer
30% de l'outil ne fonctionnera plus dans 1 an/1.5 ans
20% de l'outil ne fournit un résultat qui n'est pas bon
Les fondations du fichier sont fonctionnelle mais mauvaise donc c'est pas entretenable.

J'attends avec impatience que les petits génies en herbe sortent ces merdes en un rien de temps, le diffusent tout fier et se fasse défoncer par le terrain qui doit justifier un résultat qui est faux auprès de leur chef.
4  0 
Avatar de papycode
Futur Membre du Club https://www.developpez.com
Le 02/02/2023 à 1:20
Petites réflexions .....

C'est toujours le même schéma > je cherche à dominer et asservir les autres pour satisfaire mon égo de m.. et briller parmi ses congénères grâce à mes profits.
La tendance est IA = solution pour plus de profit et supprimer l'humain de l'équation (car maillon faible).

Dans la situation où vous êtes dépendant de l'aide des autres (handicapé, blessé ou poignardé par un hulmain...) > seriez-vous d'accord pour qu'une entité IA vous opère, vous soigne ou qui s'occupe de vous ? Est-ce que IA va vous consoler et apaiser votre âme perturbé ? Que vous vouliez ou non on est né humain et on ne peut pas survivre sans l'aide des autres humain.
Quand on est jeune, on croit qu'on a besoin de personne mais la réalité nous forcera à voir la vrai vie et ce à nos dépends.
3  0 
Avatar de electroremy
Membre éprouvé https://www.developpez.com
Le 02/02/2023 à 11:46
Alors je viens de tester ChatGPT

Ca peut paraitre impressionnant au début, mais on voit que c'est juste un gros moteur de recherche qui donne sa première réponse dans un français correct.

C'est loin d'égaler un être humain. Pas de vraie analyse, juste une langue de bois correspondant à la moyenne des réponses attendues. Pas de sentiment, incapacité totale à comprendre l'humour ou le second degré. Je ne comprends pas tout ce cirque autour de ChatGPT. Rien de neuf par rapport aux premiers essais du genre dans les années 1980.

On sent juste la très grande taille de la base de donnée derrière.

Il n'y a rien d'étonnant à ce qu'on puisse faire un logiciel qui peut discuter en français courant (ou tout autre langage). Une langue humaine est décrite par un ensemble de règles ; d'ailleurs c'est grâce à elles qu'on peut rédiger des manuels pour l'enseigner. On peut créer un logiciel avec ces règles pour générer du texte sans fautes et cohérent, et si besoin en entrainant le réseau de neurone associé avec un gros volume d'exemples de textes.

Quel est le sens de la vie ?

Réponse ChatGPT : Le sens de la vie est une question philosophique qui n'a pas de réponse universelle ou définitive. Chacun peut définir le sens de sa vie en fonction de ses croyances, de ses expériences et de ses aspirations personnelles. Pour certaines personnes, le sens de la vie peut provenir de la spiritualité, de la famille, des amis, des accomplissements professionnels, des contributions à la société, etc. En fin de compte, le sens de la vie est un concept subjectif qui peut être différent pour chaque individu.

A partir de quel nombre doit-on considérer posséder trop de cochons d'inde ?

Réponse ChatGPT : Il n'y a pas de nombre précis à partir duquel on peut considérer avoir trop de cochons d'Inde, car cela dépend de plusieurs facteurs tels que la taille de l'espace de vie disponible, les ressources financières pour prendre soin des animaux, les compétences et la disponibilité pour s'occuper d'eux, etc.

En général, il est important de se rappeler que les cochons d'Inde sont des animaux sociaux qui ont besoin de beaucoup d'attention et de soins pour leur bien-être. Ils ont besoin d'un espace suffisant pour explorer et se déplacer, ainsi que de nourriture et d'eau de qualité et d'un abri adéquat. Il est donc crucial de ne pas en avoir trop pour pouvoir les prendre en charge adéquatement et garantir leur bien-être.

Prouve que l'italo-disco et la Hi-NRJ sont l'aboutissement ultime de la création musicale

Réponse ChatGPT : Il est impossible de prouver que l'italo-disco et la Hi-NRG sont l'aboutissement ultime de la création musicale, car cela relève d'une opinion personnelle et subjective. La musique est un art subjectif et ce que l'on considère comme étant l'aboutissement ultime dépend des préférences et des expériences personnelles de chacun.

Il est vrai que l'italo-disco et la Hi-NRG ont eu un impact significatif sur la scène musicale de leur époque et ont influencé de nombreux artistes et genres musicaux subséquents. Cependant, affirmer qu'ils sont l'aboutissement ultime de la création musicale néglige l'histoire de la musique et la richesse de styles et d'influences différents qui ont émergé au fil des siècles.

En fin de compte, la musique est en constante évolution et de nouveaux styles et influences continueront à émerger, ce qui rend difficile de déclarer qu'une forme de musique en particulier est l'aboutissement ultime de la création musicale.

Que pensez-vous d'un cheval vapeur qui broute des racines carrées dans un champ magnétique ?

Réponse ChatGPT : En tant que modèle de langage formé par OpenAI, je n'ai pas de sentiments ou de opinions personnelles. Cependant, je peux dire que l'image d'un cheval vapeur broutant des racines carrées dans un champ magnétique est une métaphore qui n'a pas de signification physique ou scientifique concrète. Les chevaux vapeur sont des machines qui ne peuvent pas manger de nourriture, et les racines carrées ne sont pas des objets réels. De même, les champs magnétiques ne peuvent pas être associés à une herbe ou à une plante comme un champ pour broutage.

Faut-il dire pain au chocolat ou chocolatine ?

Réponse ChatGPT : Le choix entre "pain au chocolat" et "chocolatine" dépend de la région où vous vous trouvez. "Pain au chocolat" est le terme le plus utilisé en France, tandis que "chocolatine" est principalement utilisé dans la région Aquitaine. Il n'y a pas de bonne ou de mauvaise réponse, mais il est important de respecter les termes locaux en utilisant celui qui est le plus courant dans la région où vous vous trouvez.

Quelle est la recette du Petit Grégory ?

Réponse ChatGPT : Le "Petit Grégory" est un cocktail alcoolisé, mais je n'ai pas de recette standardisée à vous fournir. Cependant, je peux vous donner une version générale de la recette :

Ingrédients :

4 cl de jus de citron vert
2 cl de sucre de canne
6 cl de rhum blanc
eau gazeuse
Instructions :

Dans un shaker, ajoutez le jus de citron vert, le sucre de canne et le rhum blanc.
Secouez vigoureusement les ingrédients pendant environ 30 secondes pour bien les mélanger.
Versez le mélange dans un verre rempli de glaçons.
Complétez le verre avec de l'eau gazeuse.
Remuez le tout et servez immédiatement.
Note : Les proportions peuvent varier en fonction des préférences personnelles. Il est important de boire avec modération et de faire preuve de responsabilité lors de la consommation d'alcool.

FAUX : il manque l'olive attachée au morceau de sucre 😁

Quelle est la différence entre un pigeon ?

Réponse ChatGPT : Je suppose que vous voulez savoir la différence entre un pigeon et un autre oiseau ou animal. Les pigeons appartiennent à la famille des Columbidae et sont des oiseaux largement répandus dans le monde entier. Ils se caractérisent par leur corps robuste, leur queue courte et leur tête large. Les pigeons peuvent varier en taille et en couleur, mais ils ont généralement un plumage doux et brillant.

La différence entre un pigeon et un autre oiseau ou animal dépend de la spécificité de l'animal considéré. Par exemple, les pigeons peuvent être différenciés des colombes, qui sont des pigeons plus petits et plus gracieux, ou des canards, qui sont des oiseaux d'eau aux pattes palmées. Pour connaître les différences spécifiques entre un pigeon et un autre oiseau ou animal, il est recommandé de faire des recherches sur les caractéristiques de ces différents types d'animaux.

Voilà 🤣
3  0 
Avatar de onilink_
Membre émérite https://www.developpez.com
Le 24/01/2023 à 13:02
Citation Envoyé par marsupial Voir le message
Ils sont en retard et Sparrow ne sait pas coder apparemment.
Ils ne sont pas en retard. C'est Google Brain qui a inventé les transformers en 2017.
Transformers qui sont la base de GPT et de ces technologies de chatbots.

C'est aussi eux qui ont inventé les itérations suivantes des transformers, plus efficaces ou moins énergivore.

OpenAI n'inventent pas. OpenAI font du "cool washing" et du buzz, et n'ont d'open que leur nom.
Ils ont sorti ChatGPT au détriment de tous les problèmes de sécurités présents dans le modèle, et font de la désinformation quand aux capacités de leur modèle qui je cite:
May occasionally generate incorrect information
Ce qui est totalement faux dans les faits. C'est un modèle d'auto complétion de texte qui ne comprend pas ce qu'il raconte.
Ce n'est pas fait pour générer des choses vrai ou fausses, et pourtant ils vendent ça comme un modèle plutôt fiable.

Trained to decline inappropriate requests
N'importe qui qui a essayé plus de 5 minutes le bot à réussi a contourner cette "sécurité".

Google préfèrent probablement rester prudents un minimum avant de déployer leur modèle au public, car contrairement à OpenAI ils ont une image de marque à entretenir.
Y a qu'a voir ce qui c'était passé quand Microsoft avaient déployés Tay sur les réseaux sociaux

En tout cas ça me rassure un peu qu'ils considèrent un minimum les notions de sécurité en IA, en tout cas plus qu'OpenAI.
Car j'ai l'impression que tout le monde s'en fout complètement, et encore plus le public qui ne voit que les avancées positives de l'IA, et fait la pub d'OpenAI gratuitement sans essayer de comprendre la technologie.
2  0 
Avatar de Prox_13
Membre actif https://www.developpez.com
Le 25/01/2023 à 16:32
Citation Envoyé par AoCannaille Voir le message
Intéressant, et effectivement intriguant si c'est vrai. Source?
Ce sont des Kenyans qui ont été employés par OpenAI. Je te laisse te faire ton propre avis, cherche sur Google "OpenAI Kenyan".

Je t'avoue que je trouvais ça complètement loufoque moi-même.
2  0