Google, Meta, OpenAI, etc., et Microsoft ont chacun publié au moins un système d'IA avancé au cours de ces dernières années et dans chaque cas, le coût du produit est chiffré en plusieurs millions de dollars. Par exemple, Microsoft a investi plusieurs milliards de dollars dans OpenAI cette année pour maintenir son accès exclusif aux modèles de langage avancés développés par le laboratoire d'IA. En retour, ce partenariat permet à OpenAI de profiter de la puissance de calcul offerte par le cloud Azure de Microsoft nécessaire pour le fonctionnement de ChatGPT et d'autres produits. OpenAI peut ainsi optimiser ses dépenses en infrastructures numériques.
Mais récemment, des chercheurs de l'université de Stanford ont annoncé avoir créé un modèle d'IA bon marché qui fonctionne exactement comme ChatGPT d'OpenAI avec seulement 600 dollars. Selon le rapport de l'étude, la base a coûté 500 dollars aux chercheurs, et ils ont dépensé environ 100 dollars pour créer l'IA, ce qui a nécessité huit ordinateurs équipés d'accélérateurs NVIDIA A100 de 80 Go pendant trois heures ; ils ont "loué" ce service dans l'infrastructure du cloud. Les chercheurs ont basé leur IA sur le modèle de langage ouvert LLaMA 7B, qui est le plus petit et le moins cher de la série LLaMA développée par Meta. Ils ont baptisé leur modèle d'IA Alpaca.
Ses capacités sont en fait assez limitées, et il fait moins bien que ChatGPT dans la plupart des tâches. Ce n'est pas surprenant, car la formation des modèles d'IA GPT a pris plus de temps et de ressources. ChatGPT a lu des milliards de livres, tandis qu'Alpaca a appris quelques questions et réponses données par des humains, même si elles sont peu nombreuses. D'autre part, le modèle d'IA Alpaca accomplit certaines tâches assez bien, et parfois même mieux que son rival ChatGPT. Lors du premier test, Alpaca aurait réussi 90 tests (rédaction de courriels, publication sur les médias sociaux, aide au travail, etc.), tandis que ChatGPT n'aurait réussi que 89 tests.
Les chercheurs ont écrit : « nous avons été assez surpris par ce résultat étant donné la petite taille du modèle et la quantité modeste de données relatives au suivi des instructions. Outre l'exploitation de cet ensemble d'évaluations statiques, nous avons également testé le modèle Alpaca de manière interactive, et nous avons constaté qu'Alpaca se comporte souvent de manière similaire à text-davinci-003 (GPT-3.5) sur un ensemble diversifié d'entrées. Nous reconnaissons que notre évaluation peut être limitée en matière d'échelle et de diversité ». L'équipe estime qu'elle aurait probablement pu le faire à moindre coût si elle avait cherché à optimiser le processus.
L'équipe a publié sur Github les 52 000 questions utilisées dans le cadre de cette étude, ainsi que le code permettant d'en générer d'autres et le code utilisé pour affiner le modèle LLaMA. Il reste des ajustements supplémentaires pour s'assurer que ce modèle fonctionne en toute sécurité et dans le respect de l'éthique. Alors, qu'est-ce qui empêche n'importe qui de créer sa propre IA pour une centaine d'euros et de la dresser comme il l'entend ? En théorie, toute personne disposant d'une formation technique correspondante et d'au moins 600 dollars peut répéter l'expérience des chercheurs de Stanford. Mais dans les faits, les choses sont un peu compliquées.
La licence d'OpenAI ne permet pas, ou plutôt interdit, d'utiliser les données de ses modèles pour développer des systèmes concurrents. En revanche, Meta accorde une licence non commerciale aux chercheurs et universitaires pour utiliser ses modèles, bien que ce soit un point discutable, puisque le modèle LLaMA entier a été divulgué sur 4chan une semaine après son annonce. Un autre groupe affirme avoir réussi à éliminer le coût du cloud, en publiant sur Github un code supplémentaire qui peut fonctionner sur un Raspberry Pi et compléter le processus de formation en cinq heures avec une seule carte graphique haut de gamme Nvidia RTX 4090.
I don't know what to make about this development. Alpaca is surprisingly very good. The claim here is the training can be done in 5 hours on a single RTX 4090. Have GPT-like models been democratized overnight?! https://t.co/ysfn5u6xwI
— Carlos E. Perez (@IntuitMachine) March 16, 2023
Cependant, un rapport publié cette semaine indique que les chercheurs ont mis Alpaca hors ligne en raison de l'augmentation des coûts, de problèmes de sécurité et d'"hallucinations", terme sur lequel la communauté de l'IA s'est mise d'accord lorsqu'un chatbot affirme en toute confiance des informations erronées, en rêvant d'un fait qui n'existe pas. Dans un communiqué de presse annonçant le lancement initial d'Alpaca, l'auteur principal, Rohan Taori, étudiant en doctorat d'informatique à Stanford, a reconnu qu'un test public comportait des risques. Mais l'on ignore exactement ce qui a mal tourné lors de la démo interactive d'Alpaca.
« L'objectif initial de la publication d'une démo était de diffuser nos recherches de manière accessible. Nous pensons que nous avons en grande partie atteint cet objectif et, compte tenu des coûts d'hébergement et des insuffisances de nos filtres de contenu, nous avons décidé de retirer la démo », a déclaré un porte-parole du Stanford Human-Centered Artificial Intelligence (Stanford HAI) à Register. Le département n'a pas répondu immédiatement à une demande de commentaire. Vous ne pouvez plus accéder à une copie fonctionnelle d'Alpaca, mais le code et les données sous-jacentes sont toujours en ligne sur GitHub.
« Nous encourageons les utilisateurs à nous aider à identifier de nouveaux types de défaillances en les signalant dans la démo Web. Dans l'ensemble, nous espérons que la publication d'Alpaca facilitera la poursuite des recherches sur les modèles de suivi des instructions et leur alignement sur les valeurs humaines », ont déclaré les chercheurs dans le communiqué de presse. Malgré ses échecs apparents, Alpaca présente des aspects intéressants qui rendent le projet de recherche intéressant. Ses faibles coûts initiaux sont particulièrement remarquables, contrairement aux superordinateurs de Microsoft qui coûtent plusieurs millions de dollars.
Alors, que signifie tout cela ? Cela signifie qu'un nombre illimité de modèles de langage non contrôlés peuvent désormais être mis en place, notamment par des personnes ayant des connaissances en matière d'apprentissage automatique et ne se souciant pas des conditions générales d'utilisation ou du piratage de logiciels - pour presque rien. Si une grande partie du temps et des dépenses nécessaires est consacrée à la phase de post-entraînement, et que ce travail peut être plus ou moins volé dans le temps qu'il faut pour répondre à 50 ou 100 000 questions, cela a-t-il un sens pour les entreprises de continuer à dépenser cet argent ?
En outre, les capacités impressionnantes de ce logiciel pourraient certainement être utiles à un régime autoritaire, ou à une opération d'hameçonnage, ou à un spammeur, ou à tout autre acteur douteux. « Le génie est sorti de la bouteille, et il semble qu'il soit déjà extrêmement facile de le reproduire et de le réentraîner. Accrochez-vous à votre chapeau », mettent en garde les experts.
Sources : communiqué de presse des chercheurs de Stanford, référentiel GitHub du projet, AlpacaPi
Et vous ?
Quel est votre avis sur le sujet ?
Que pensez-vous du coût insignifiant de la création et la formation du modèle d'IA Alpaca ?
S'il est si facile que ça de répliquer ChatGPT et de l'entraîner, pourquoi Microsoft dépense-t-elle des milliards pour cela ?
Selon vous, y a-t-il un avantage à injecter autant d'argent ?
Selon vous, est-ce une bonne idée d'avoir rendu publics le code et les données sous-jacentes d'Alpaca ?
Pensez-vous que cela pourrait entraîner une prolifération des modèles d'IA d'amateurs dans le prochain mois ?
Quels pourraient être les impacts d'une telle situation sur Internet et le secteur de l'IA ?
Voir aussi
Une recherche avec Bard de Google et ChatGPT de Microsoft coûte probablement 10 fois plus qu'une recherche par mot-clé, ce qui pourrait représenter « plusieurs milliards de dollars de surcoûts »
Des ingénieurs de Google ont développé une IA de type ChatGPT il y a des années, mais les dirigeants l'ont bloquée pour des raisons de sécurité. Leur travail sous-tend désormais Bard
Google commence à ouvrir l'accès à son concurrent ChatGPT de Microsoft et annonce le lancement public de son chatbot Bard
Bill Gates affirme que l'essor de l'IA menace les bénéfices que Google tire de son moteur de recherche, mais la recherche via Bing Chat et Bard entraîne plusieurs milliards de dollars de surcoûts