IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Le génie est sorti de la bouteille : des chercheurs de Stanford ont répliqué le chatbot d'IA ChatGPT pour moins de 600 dollars,
Mais l'ont rapidement mis hors ligne en raison de ses "hallucinations"

Le , par Bill Fassinou

20PARTAGES

5  0 
Des chercheurs de l'université de Stanford ont mis au point leur propre modèle d'IA, Alpaca, qui est semblable à ChatGPT. L'entraînement de ce modèle n'aurait coûté que 600 dollars, car il a été conçu sur la base de la plateforme open source LLaMA de Meta. Leur expérience montre que les nouveaux systèmes d'IA avancés peuvent être facilement reproduits, et que cela ne nécessite même pas des coûts énormes. Cependant, un nouveau rapport indique cette semaine que les chercheurs ont mis hors ligne leur IA en raison d'"hallucinations" graves et de l'augmentation des coûts. De plus, les chercheurs n'auraient pas réussi à faire en sorte que l'IA se comporte bien.

Google, Meta, OpenAI, etc., et Microsoft ont chacun publié au moins un système d'IA avancé au cours de ces dernières années et dans chaque cas, le coût du produit est chiffré en plusieurs millions de dollars. Par exemple, Microsoft a investi plusieurs milliards de dollars dans OpenAI cette année pour maintenir son accès exclusif aux modèles de langage avancés développés par le laboratoire d'IA. En retour, ce partenariat permet à OpenAI de profiter de la puissance de calcul offerte par le cloud Azure de Microsoft nécessaire pour le fonctionnement de ChatGPT et d'autres produits. OpenAI peut ainsi optimiser ses dépenses en infrastructures numériques.

Mais récemment, des chercheurs de l'université de Stanford ont annoncé avoir créé un modèle d'IA bon marché qui fonctionne exactement comme ChatGPT d'OpenAI avec seulement 600 dollars. Selon le rapport de l'étude, la base a coûté 500 dollars aux chercheurs, et ils ont dépensé environ 100 dollars pour créer l'IA, ce qui a nécessité huit ordinateurs équipés d'accélérateurs NVIDIA A100 de 80 Go pendant trois heures ; ils ont "loué" ce service dans l'infrastructure du cloud. Les chercheurs ont basé leur IA sur le modèle de langage ouvert LLaMA 7B, qui est le plus petit et le moins cher de la série LLaMA développée par Meta. Ils ont baptisé leur modèle d'IA Alpaca.


Ses capacités sont en fait assez limitées, et il fait moins bien que ChatGPT dans la plupart des tâches. Ce n'est pas surprenant, car la formation des modèles d'IA GPT a pris plus de temps et de ressources. ChatGPT a lu des milliards de livres, tandis qu'Alpaca a appris quelques questions et réponses données par des humains, même si elles sont peu nombreuses. D'autre part, le modèle d'IA Alpaca accomplit certaines tâches assez bien, et parfois même mieux que son rival ChatGPT. Lors du premier test, Alpaca aurait réussi 90 tests (rédaction de courriels, publication sur les médias sociaux, aide au travail, etc.), tandis que ChatGPT n'aurait réussi que 89 tests.

Les chercheurs ont écrit : « nous avons été assez surpris par ce résultat étant donné la petite taille du modèle et la quantité modeste de données relatives au suivi des instructions. Outre l'exploitation de cet ensemble d'évaluations statiques, nous avons également testé le modèle Alpaca de manière interactive, et nous avons constaté qu'Alpaca se comporte souvent de manière similaire à text-davinci-003 (GPT-3.5) sur un ensemble diversifié d'entrées. Nous reconnaissons que notre évaluation peut être limitée en matière d'échelle et de diversité ». L'équipe estime qu'elle aurait probablement pu le faire à moindre coût si elle avait cherché à optimiser le processus.

L'équipe a publié sur Github les 52 000 questions utilisées dans le cadre de cette étude, ainsi que le code permettant d'en générer d'autres et le code utilisé pour affiner le modèle LLaMA. Il reste des ajustements supplémentaires pour s'assurer que ce modèle fonctionne en toute sécurité et dans le respect de l'éthique. Alors, qu'est-ce qui empêche n'importe qui de créer sa propre IA pour une centaine d'euros et de la dresser comme il l'entend ? En théorie, toute personne disposant d'une formation technique correspondante et d'au moins 600 dollars peut répéter l'expérience des chercheurs de Stanford. Mais dans les faits, les choses sont un peu compliquées.

La licence d'OpenAI ne permet pas, ou plutôt interdit, d'utiliser les données de ses modèles pour développer des systèmes concurrents. En revanche, Meta accorde une licence non commerciale aux chercheurs et universitaires pour utiliser ses modèles, bien que ce soit un point discutable, puisque le modèle LLaMA entier a été divulgué sur 4chan une semaine après son annonce. Un autre groupe affirme avoir réussi à éliminer le coût du cloud, en publiant sur Github un code supplémentaire qui peut fonctionner sur un Raspberry Pi et compléter le processus de formation en cinq heures avec une seule carte graphique haut de gamme Nvidia RTX 4090.


Cependant, un rapport publié cette semaine indique que les chercheurs ont mis Alpaca hors ligne en raison de l'augmentation des coûts, de problèmes de sécurité et d'"hallucinations", terme sur lequel la communauté de l'IA s'est mise d'accord lorsqu'un chatbot affirme en toute confiance des informations erronées, en rêvant d'un fait qui n'existe pas. Dans un communiqué de presse annonçant le lancement initial d'Alpaca, l'auteur principal, Rohan Taori, étudiant en doctorat d'informatique à Stanford, a reconnu qu'un test public comportait des risques. Mais l'on ignore exactement ce qui a mal tourné lors de la démo interactive d'Alpaca.

« L'objectif initial de la publication d'une démo était de diffuser nos recherches de manière accessible. Nous pensons que nous avons en grande partie atteint cet objectif et, compte tenu des coûts d'hébergement et des insuffisances de nos filtres de contenu, nous avons décidé de retirer la démo », a déclaré un porte-parole du Stanford Human-Centered Artificial Intelligence (Stanford HAI) à Register. Le département n'a pas répondu immédiatement à une demande de commentaire. Vous ne pouvez plus accéder à une copie fonctionnelle d'Alpaca, mais le code et les données sous-jacentes sont toujours en ligne sur GitHub.

« Nous encourageons les utilisateurs à nous aider à identifier de nouveaux types de défaillances en les signalant dans la démo Web. Dans l'ensemble, nous espérons que la publication d'Alpaca facilitera la poursuite des recherches sur les modèles de suivi des instructions et leur alignement sur les valeurs humaines », ont déclaré les chercheurs dans le communiqué de presse. Malgré ses échecs apparents, Alpaca présente des aspects intéressants qui rendent le projet de recherche intéressant. Ses faibles coûts initiaux sont particulièrement remarquables, contrairement aux superordinateurs de Microsoft qui coûtent plusieurs millions de dollars.

Alors, que signifie tout cela ? Cela signifie qu'un nombre illimité de modèles de langage non contrôlés peuvent désormais être mis en place, notamment par des personnes ayant des connaissances en matière d'apprentissage automatique et ne se souciant pas des conditions générales d'utilisation ou du piratage de logiciels - pour presque rien. Si une grande partie du temps et des dépenses nécessaires est consacrée à la phase de post-entraînement, et que ce travail peut être plus ou moins volé dans le temps qu'il faut pour répondre à 50 ou 100 000 questions, cela a-t-il un sens pour les entreprises de continuer à dépenser cet argent ?

En outre, les capacités impressionnantes de ce logiciel pourraient certainement être utiles à un régime autoritaire, ou à une opération d'hameçonnage, ou à un spammeur, ou à tout autre acteur douteux. « Le génie est sorti de la bouteille, et il semble qu'il soit déjà extrêmement facile de le reproduire et de le réentraîner. Accrochez-vous à votre chapeau », mettent en garde les experts.

Sources : communiqué de presse des chercheurs de Stanford, référentiel GitHub du projet, AlpacaPi

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous du coût insignifiant de la création et la formation du modèle d'IA Alpaca ?
S'il est si facile que ça de répliquer ChatGPT et de l'entraîner, pourquoi Microsoft dépense-t-elle des milliards pour cela ?
Selon vous, y a-t-il un avantage à injecter autant d'argent ?
Selon vous, est-ce une bonne idée d'avoir rendu publics le code et les données sous-jacentes d'Alpaca ?
Pensez-vous que cela pourrait entraîner une prolifération des modèles d'IA d'amateurs dans le prochain mois ?
Quels pourraient être les impacts d'une telle situation sur Internet et le secteur de l'IA ?

Voir aussi

Une recherche avec Bard de Google et ChatGPT de Microsoft coûte probablement 10 fois plus qu'une recherche par mot-clé, ce qui pourrait représenter « plusieurs milliards de dollars de surcoûts »

Des ingénieurs de Google ont développé une IA de type ChatGPT il y a des années, mais les dirigeants l'ont bloquée pour des raisons de sécurité. Leur travail sous-tend désormais Bard

Google commence à ouvrir l'accès à son concurrent ChatGPT de Microsoft et annonce le lancement public de son chatbot Bard

Bill Gates affirme que l'essor de l'IA menace les bénéfices que Google tire de son moteur de recherche, mais la recherche via Bing Chat et Bard entraîne plusieurs milliards de dollars de surcoûts

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de schlebe
Membre actif https://www.developpez.com
Le 08/06/2023 à 19:26
La moindre des choses à exiger des articles publiés par ChatGPT et qu'il les signe afin de permettre aux lecteurs de connaître la véritable source des articles.

Il faudrait également sanctionner les sociétés qui publient des articles générés par ChatGPT avec du contenus inventés ou mensongers.

Une amende de 2% du chiffre d'affaire par articles mensongers publiés et une amende de 2% du chiffre d'affaire par jour et par articles mensongers constatés et toujours publiés plus d'une semaine après le constat.

Dans moins d'un mois, on ne parlera plus de ChatGPT de la même façon et il faudra engager du personnel pour vérifier tout ce qu'il aura écrit.
12  2 
Avatar de walfrat
Membre émérite https://www.developpez.com
Le 07/04/2023 à 9:55
"Hey chatGPT, voilà toutes les donneés confidentielles économiques de mon entreprises, fait moi le rapport financier stp, j'ai la flème".
8  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 09/06/2023 à 14:59
Citation Envoyé par coolspot Voir le message
Macron si on peut dire c'est un Poutine avec 20 ans de moins. Il se prépare deja à vouloir bidouiller la constitution ou faire comme la presse commence à le dire une "Poutine/Medvedev" pour etre président à vie
Heu ! Tu as des infos la dessus ? Non seulement sur la préparation, mais aussi la faisabilité...
8  0 
Avatar de totozor
Membre expert https://www.developpez.com
Le 09/06/2023 à 15:48
Citation Envoyé par Ryu2000 Voir le message
C'est pas marrant d'être sans emploi.
C'est pas marrant d'être sans emploi dans un système capitaliste.
Que se passerait il si les gens n'avaient plus besoin de se salarier pour vivre?
La plupart travailleraient.
Par exemple que font les retraités qui ont la santé?
Il s'investissent dans les associations, ils gardent leurs petits enfants, ils investissent dans leur quartier, ils s'entreaident etc.
(Et ceux qui revaient d'être rentiers partent en voyage)

Pourquoi ceci n'est pas souhaitable?
Comment nos dirigeants s'assureraient d'avoir de la main d'oeuvre (au sens large)?
Bernard Arnault perdrait "de la valeur" (je ne dit pas qu'il n'en aurait plus) et Gérard l'éboueur, Géraldine l'aide soignante, Marcel le passionné d'astronomie en gagneraient

Oui le monde que je décrit est peut être idéaliste mais il y a des faisceau de pistes qui suggèrent que c'est viable
Et ce n'est qu'un monde à envisager parmi d'autres
Celui dans lequel on vit ne semble pas viable pour la majorité.
9  1 
Avatar de e-ric
Membre expert https://www.developpez.com
Le 16/06/2023 à 9:42
Salut à tous

Ok pour l'estimation, mais le vrai de problème est de savoir qui va capter tout cet argent. Perso, je pense que cela ne va pas ruisseler et que bien au contraire, cela va mettre beaucoup de gens (comme nous) sur la paille.

tchüss
8  0 
Avatar de petitours
Membre chevronné https://www.developpez.com
Le 31/01/2024 à 8:42
Une fois que l'on a compris que ChatGPT n'est qu'un agent conversationnel on peut le trouver super.
Dans le détail ça ne vaut pas plus qu'une discussion de lundi matin à la machine à café basée sur le fait qu'il faut absolument dire un truc et où le plus bavard, ici chatGPT, va absolument avoir un anecdote et répondre un truc quel que soit le sujet.
J'ai testé, longuement, et reçu des réponses régulièrement débiles.
Aujourd'hui je ne l'utilise que sur des sujets que je connais très bien pour voir ce qu'il me répond, notamment dans le cadre d'enseignements que je donne pour voir ce que mes étudiants vont avoir comme informations en passant par lui. Ce qu'il raconte est au mieux très vague, au pire profondément faux, souvent parce que révélant des mauvaises pratiques.
Cette médiocrité de l'information est à mon sens le plus négatif, sans doute basée sur le volume de données qu'il va chercher copieusement "enrichies" par des forums, blogs ou autres écrits par des non spécialistes.
Le fait qu'il fouine partout et utilise des données personnelles ou viole les droits des auteurs est un autre problème majeur mais personnellement je le le mettrait en 2, après celui de donner des informations fausses ou médiocres qui tirent vers le bas celui qui pose la question.
8  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 28/03/2023 à 20:49
Citation Envoyé par Bill Fassinou Voir le message
Pensez-vous que ces nouveaux chatbots d'IA sont des outils utiles ou plutôt des gadgets inutiles, voire nuisibles ?
Si les champions des moteurs de recherche se lancent dans ce genre de bot, c'est parce qu'ils ont tout à y gagner niveau collecte des données.

On a essayé de nous pousser du metavers partout, et ça n'a pas vraiment pris. Là, ils ont trouvé comment collecter plus de données en exploitant la curiosité et/ou la paresse des gens
7  0 
Avatar de chrtophe
Responsable Systèmes https://www.developpez.com
Le 09/06/2023 à 13:53
Pas d'emploi => Pas de revenu
Pas de revenu => Pas d'impôt
Pas d'impôt => Pas de service public

Je modifierais par :

Pas d'emploi => Pas de revenu
Pas de revenu => Pas de quoi acheter les produits des entreprises => pas de revenus pour les entreprises

pas de revenus ni d'entreprises, ni de particuliers=> pas d"impôts => pas de services publics

en gros effondrement de notre modèle.

Postulons que le revenu universel pourrait être la solution : comment le financer ? Le seul financement viable que je vois c'est par les entreprises, et éventuellement par les personnes qui continueront à travailler en plus du revenu universel. Mais si ce qu'ils gagnent est taxé à 80% pour financer le système, quel est l’intérêt de travailler ? Les entreprises manqueront alors de personnel, et devront donc payer leur salariés chers, et payer des taxes encore plus lourdes, charges qui seront répercutées sur le prix des produits, rendant du coup le revenu universel insuffisant pour pouvoir les acheter.
Parade au problème : le blocage des prix. Les entreprises iront alors vendre ceux-ci ailleurs provoquant des pénuries, c'est ce qui se passe actuellement avec les médicaments.

Avoir un vrai revenu universel implique une non d'obligation de travailler, donc travailler doit réellement apporter quelque chose : argent , épanouissement, occupation, lien social, activités, en dehors de l'aspect financier, pouvant être réalisé dans le cadre associatif par exemple, pouvant apporter à la société et étant plus pertinent qu'un travail pour plein de gens. Comment viabiliser le truc ? Il faudrait déjà calculer le besoin de financement de ce revenu universel et ensuite voir comment le financer. Perso je passe mon tour, de toute façon je ne serais pas écouté.

Si de toute façon les gens n'ont plus de travail, une économie parallèle se généralisera je pense.
7  0 
Avatar de xavier-Pierre
Membre éclairé https://www.developpez.com
Le 21/07/2023 à 8:10
Selon une nouvelle étude menée par des chercheurs de Stanford, les étudiants en médecine de première et de deuxième année peuvent obtenir de meilleurs résultats que les étudiants en médecine
encore un article généré par l'IA
7  0 
Avatar de calvaire
Expert confirmé https://www.developpez.com
Le 07/06/2023 à 9:40
Citation Envoyé par totozor Voir le message
Il y a quelques années il était évident pour certains que le travail à domicile était la solution à terme, les grands groupes informatiques en reviennent au fur et à mesure.
non, le full remote n'a jamais été l'avenir.
c'est le travail hybride qui était l'avenir et clairement ca prends, je trouve aucune boite en it qui impose du 100% en présentiel (et heureusement sinon ils trouverait personne), c'est 2-3j de télétravail/semaines.
capgemini (la plus grosse esn) c'est 4 jours de télétravail/semaines par exemple.



Citation Envoyé par totozor Voir le message

Remplacer les profs, les médecins par les IA serait créer la société décadente que beaucoup regrettent déjà. Je n'ai aucune considérations pour les profs pourtant certains m'ont quasiment sauvé la vie et je suis incapable d'apprendre avec un IA (avec leur état de maturité actuelle), et quand je vais voir mon médecin je ne vais pas juste récupérer une prescription, je vais aussi trouver l'avis d'un professionnel, pouvoir lui expliquer en quoi pratiquer un sport de contact alors que j'ai des problèmes de dos est une préoccupation et qu'il me fasse un retour sur les choses à favoriser/éviter. Ces consultations sont d'ailleurs assez caucasses parce qu'on envisage des vraies situaitons de jeu.
tu raisonnes en mode "l'état me le finance gratos ou hj'ai les moyens de me le payer"

dans les pays anglo-saxons, les populations s'appauvrisses avec l'inflation, ils a des grande coupe budgétaire à faire. éduquer ces enfants par chatgpt et se faire soigner par chatgpt c'est leurs seul solution pour survivre hélas.

dans les pays disons plus "socialiste" comme la France, les gens sont pauvres aussi mais peuvent encore avoir accès a ces services gratos. Mais la dette explose et quand faudra la rembourser, l'état va devoir bien tailler dans les dépenses, donc les flics ce seront des drones de combats autonomes, les profs remplacer par des bots et les docteurs (y'a déjà une pénurie) remplacer par chatgpt.
Faut bien payer la dette.

les pays comme la Roumanie, la France leurs volent leurs médecins, eux n'ont donc plus le choix c'est chatgpt ou crève.

La 5G ou les voitures électriques sont des fiascos industriels car les gens n'ont pas les moyens de se payer ces technos. Je me demande qui va acheter les batteries qu'ils vont produire dans le nord. La moyenne d'âge pour l'achat une voiture neuve en france c'est...57ans
donc la relance par l'industrie c'est juste une grosse blague.

et en 2027 ce sera la taxe carbone ne qui va venir (450€/ans)

donc les gens n'ont plus les moyens d'aller voir un médecin, de se payer un avocat ou d'aller a l'école, aujourd'hui beaucoup de francais peuvent juste acheter des pates le soir (le midi ils sautent le repas) pour se nourrir et acheter une tablette wiko pour lancer chatgpt pour s'instruire et se soigner.

C'est extrême ce que je dis mais lentement et surement on y va. Actuellement l'état est tellement dans la merde niveau finance qu'il en est a réfléchir a devenir copropriétaire de tous les bien immobilier de France pour déduire la dette. Donc de t'expropriée à terme.
Les entreprises doivent absolument alimenter la croissance pour les actionnaires, a n'importe quel prix, donc licenciements massifs obligatoire, même si la qualité est mauvaise.
8  2