OpenAI a lancé ChatGPT en novembre 2022. L'assistant d'IA a rapidement gagné en popularité, dépassant les 100 millions d'utilisateurs hebdomadaires. L'entreprise d'intelligence artificielle, basée aux États-Unis, a annoncé le 18 juillet le lancement d'un nouveau modèle d'IA générative, baptisé « GPT-4o Mini ». L'entreprise serait également en train de construire un modèle d'IA capable d'un raisonnement avancé, surpassant les capacités de l'actuel modèle phare GPT-4o. Le nouveau modèle, appelé « Strawberry », aurait également des réactions plus proches de celles des humains.
Toutefois, OpenAI gère une entreprise coûteuse qui pourrait perdre jusqu'à 5 milliards de dollars en 2024, ce qui mettrait le fabricant de ChatGPT à court de liquidités dans les 12 mois à venir, selon une analyse de The Information.
Des dépenses colossales
Selon le rapport, qui cite des données financières précédemment non divulguées et des personnes familières avec l'entreprise, OpenAI est sur la bonne voie pour dépenser quelque 7 milliards de dollars uniquement pour la formation de ses modèles d'intelligence artificielle, et 1,5 milliard de dollars supplémentaires pour la dotation en personnel. Ces dépenses dépassent de loin celles de ses rivaux, comme Anthropic, soutenu par Amazon, qui prévoit un taux d'absorption de 2,7 milliards de dollars en 2024.
Les dépenses élevées d'OpenAI pourraient obliger l'entreprise à conclure un nouveau cycle de financement dans les 12 mois pour renforcer son bilan, selon le rapport. OpenAI a déjà réalisé sept tours de financement, levant plus de 11 milliards de dollars, selon les données de Tracxn - le plus récent étant un tour privé avec ARK Investment Management en avril pour une somme non divulguée.
Les défis réglementaires et de transparence
Outre les défis financiers, OpenAI doit également faire face à des questions réglementaires. En effet, la Securities and Exchange Commission (SEC), gendarme américain des marchés financiers, enquête sur des allégations de non-respect des accords de confidentialité. De plus, des législateurs américains ont exprimé leurs préoccupations concernant les normes de sécurité et les pratiques d’emploi d’OpenAI. Dans une lettre adressée au PDG d'OpenAI, Sam Altman ils ont demandé si l’entreprise s’engagerait à rendre son prochain modèle de base disponible aux agences gouvernementales américaines pour des tests, des examens et des évaluations préalables au déploiement.
Les motifs ? Ils l'expliquent avant de lister leurs exigences :
« Une IA sûre et sécurisée est largement considérée comme vitale pour la compétitivité économique et la position géopolitique de la nation au XXIe siècle. En outre, OpenAI travaille actuellement en partenariat avec le gouvernement américain et les agences de sécurité et de défense nationales pour développer des outils de cybersécurité destinés à protéger les infrastructures critiques de notre pays. La sécurité nationale et économique fait partie des responsabilités les plus importantes du gouvernement des États-Unis, et les systèmes d'IA non sécurisés ou autrement vulnérables ne sont pas acceptables.
« Compte tenu de la position d'OpenAI en tant qu'entreprise leader dans le domaine de l'IA, il est important que le public puisse avoir confiance dans la sûreté et la sécurité de ses systèmes. Cela inclut l'intégrité de la structure de gouvernance de l'entreprise et des tests de sécurité, ses pratiques d'emploi, sa fidélité à ses promesses publiques et à sa mission, ainsi que ses politiques de cybersécurité. Les engagements volontaires que vous et d'autres grandes entreprises d'IA avez pris avec la Maison Blanche l'année dernière ont constitué une étape importante dans l'instauration de cette confiance ».
Pour Mark Zuckerberg, l'avenir est dans l'IA open source
Dans une lettre récente, Mark Zuckerberg, fondateur et PDG de Meta, a souligné le rôle essentiel de l'IA open source et les avantages qu'elle confère pour les développeurs, pour Meta et pour le monde entier. Faisant le parallèle avec le succès de l'open source Linux, Zuckerberg a souligné les avancées des modèles Llama de Meta, en particulier le nouveau Llama 3.1 405B de niveau frontière. Il a détaillé la collaboration de Meta avec de grandes entreprises technologiques afin de favoriser un écosystème d'IA étendu, plaidant pour que l'open source soit l'avenir de l'innovation en matière d'IA et la norme de l'industrie :
« Dans les premiers temps de l'informatique de haute performance, les principales entreprises technologiques de l'époque ont toutes investi massivement dans le développement de leurs propres versions d'Unix à code source fermé. À l'époque, il était difficile d'imaginer qu'une autre approche puisse permettre de développer des logiciels aussi avancés. Cependant, Linux a fini par gagner en popularité, d'abord parce qu'il permettait aux développeurs de modifier son code à leur guise et qu'il était plus abordable, puis parce qu'il est devenu plus avancé, plus sûr et qu'il disposait d'un écosystème plus large prenant en charge davantage de fonctionnalités que n'importe quel Unix fermé. Aujourd'hui, Linux est la base standard de l'industrie pour le cloud computing et les systèmes d'exploitation qui font fonctionner la plupart des appareils mobiles - et nous bénéficions tous de produits de qualité supérieure grâce à lui.
« Je pense que l'IA se développera de la même manière. Aujourd'hui, plusieurs entreprises technologiques développent des modèles fermés de pointe. Mais l'open source comble rapidement le fossé. L'année dernière, Llama 2 n'était comparable qu'à une ancienne génération de modèles derrière la frontière. Cette année, Llama 3 est compétitif avec les modèles les plus avancés et en avance dans certains domaines. À partir de l'année prochaine, nous prévoyons que les futurs modèles Llama deviendront les plus avancés de l'industrie. Mais même avant cela, Llama est déjà en tête pour ce qui est de l'ouverture, de la modifiabilité et de la rentabilité ».
L'évolution chez la concurrence
Llama 3.1
Meta affirme que Llama 3.1 405B est le premier modèle disponible en libre accès qui rivalise avec les meilleurs modèles d’IA en termes de capacités de pointe dans les domaines de la connaissance générale, de l’orientation, des mathématiques, de l’utilisation d’outils et de la traduction multilingue. Avec la sortie du modèle 405B, Meta indique être prêt à stimuler l’innovation, avec des possibilités de croissance et d’exploration sans précédent. La société pense que la dernière génération de Llama va donner naissance à de nouvelles applications et à de nouveaux paradigmes de modélisation, y compris la génération de données synthétiques pour permettre l’amélioration et l’entraînement de modèles plus petits, ainsi que la distillation de modèles – une capacité qui n’a jamais été atteinte à cette échelle dans le domaine de l’open-source.
Dans le cadre de cette dernière version, Meta présente des versions améliorées des modèles 8B et 70B. Ceux-ci sont multilingues et disposent d’une longueur de contexte nettement plus importante (128 Ko), d’une utilisation d’outils de pointe et de capacités de raisonnement globalement plus solides. Cela permet aux derniers modèles de Meta de prendre en charge des cas d’utilisation avancés, tels que le résumé de textes longs, les agents conversationnels multilingues et les assistants de codage. Meta a également modifié sa licence, ce qui permet aux développeurs d’utiliser les résultats des modèles Llama, y compris le 405B, pour améliorer d’autres modèles. Fidèles à son engagement en faveur de l’open-source, Meta a mis dès aujourd’hui ces modèles à la disposition de la communauté pour le téléchargement sur llama.meta.com et Hugging Face, ainsi que pour le développement immédiat sur son vaste écosystème de plateformes partenaires.
Large 2 de Mistral AI
La startup française Mistral AI vient d'annoncer la sortie de Large 2, son nouveau modèle phare dont les capacités de génération de code, de mathématiques et de raisonnement sont considérablement accrues. Mistral AI a également ajouté un support multilingue amélioré et des capacités d'appel de fonctions avancées avec Large 2.
Le modèle Mistral Large 2 compte 123 milliards de paramètres, ce qui lui permet de fonctionner sur un seul nœud H100 à haut débit. Il prend en charge les langues française, allemande, espagnole, italienne, portugaise, arabe, hindi, russe, chinoise, japonaise et coréenne. En termes de codage, il prend en charge plus de 80 langages de codage, dont Python, Java, C, C++, JavaScript et Bash.
Pour les développeurs, Mistral Large 2 est désormais doté de compétences améliorées en matière d'appel et de récupération de fonctions. Il peut désormais exécuter des appels de fonctions parallèles et séquentielles, ce qui permet aux développeurs de créer des applications d'IA commerciales complexes.
Les performances de Mistral Large 2 (123B) sont comparables à celles de GPT-4o d'OpenAI, du Claude Opus 3 et du Meta's Llama 3.1 405B récemment sorti sur les benchmarks de codage. Sur les benchs Wild Bench, Arena Hard et MT Bench, Large 2 surpasse Llama 3.1 405B et Claude 3 Opus. Sur le populaire benchmark MMLU, ce nouveau modèle surpasse Llama 3.1 70B et est comparable à Llama 3.1 405B.
Mistral Large 2 est maintenant disponible avec des poids ouverts, mais il n'est disponible gratuitement que pour la recherche et l'utilisation non-commerciale. Pour une utilisation commerciale, une licence de modèle est nécessaire. Avec sa sortie, Mistral consolide son portefeuille de modèles. Il y aura deux modèles polyvalents, Mistral Nemo et Mistral Large, et deux modèles spécialisés, Codestral et Embed.
Conclusion
Alors qu'OpenAI est considéré par beaucoup comme le leader en matière d'IA, l'écart avec la concurrence ne cesse de se réduire. Pourtant, ses besoins en matière de financement sont loin de diminuer, les entrées ne couvrant vraisemblablement pas tous ses besoins. Aussi, Gary Marcus, le fondateur et directeur général de Geometric Intelligence (racheté par Uber), estime que, vu le contexte, les investisseurs devraient se poser les questions suivantes :
Quel est leur plus-value ? Une technologie unique ? Quel est leur chemin vers la rentabilité alors que Meta offre gratuitement des technologies similaires ? Ont-ils une « killer app » ? La technologie sera-t-elle un jour fiable ? Qu'est-ce qui est réel et qu'est-ce qui n'est qu'une démo ?
Sources : The Information, Tracxn, lettre des législateursSCOOP: OpenAI may lose $5B this year & may run out of cash in 12 months, unless they raise more $, per analysis @theinformation.
— Gary Marcus (@GaryMarcus) July 24, 2024
Investors should ask: What is their moat? Unique tech? What is their route in profitability when Meta is giving away similar tech for free? Do they… pic.twitter.com/i5EkvEFEQd
Et vous ?
L’IA devrait-elle être réglementée de manière plus stricte pour éviter les risques financiers des entreprises comme OpenAI ? Les dépenses massives d’OpenAI soulèvent des inquiétudes quant à la viabilité financière. Devrions-nous imposer des limites ou des contrôles plus stricts sur les investissements dans l’IA ?
Quelles sont les implications de la perte potentielle de 5 milliards de dollars pour OpenAI et l’industrie de l’IA en général ? Comment cela pourrait-il affecter la recherche, le développement et l’innovation dans le domaine de l’IA ?
La transparence d’OpenAI est-elle suffisante ? Les législateurs et les utilisateurs se préoccupent de la manière dont OpenAI gère la sécurité, la confidentialité et la divulgation de ses modèles. Quelles mesures supplémentaires devraient être prises ?
Partagez-vous le point de vue de Gary Marcus qui pense que les investisseurs devraient se poser les questions suivantes au sujet d'OpenAI : « Quel est leur plus-value ? Une technologie unique ? Quel est leur chemin vers la rentabilité alors que Meta offre gratuitement des technologies similaires ? Ont-ils une "killer app" ? La technologie sera-t-elle un jour fiable ? Qu'est-ce qui est réel et qu'est-ce qui n'est qu'une démo ? » ? Dans quelle mesure ?
Si Llama ou une autre IA venait à dépasser les performances proposées par les IA d'OpenAI, quelles pourraient en être les conséquences ?
Des IA susceptibles selon vous de réaliser cette prouesse ? Lesquelles ?