IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Pour renflouer des milliards de pertes, OpenAI trouve des investisseurs confiants dans la bulle IA pour une levée de fonds qui pourrait porter la valorisation à 150 milliards de dollars

Le , par Jade Emy

21PARTAGES

6  0 
OpenAI serait en pourparlers avancés avec des investisseurs en vue d'obtenir un financement de 6,5 milliards de dollars. Cette levée de fonds d'OpenAI pourrait porter sa valorisation à 150 milliards de dollars. Les rapports montrent que l'entreprise cherche a comblé des milliards de pertes dû aux dépenses colossales pour la formation de ses modèles d'IA.

Lancé en novembre 2022, le chatbot d'IA ChatGPT a rapidement gagné en popularité, dépassant les 100 millions d'utilisateurs hebdomadaires. OpenAI, le créateur de ChatGPT, a annoncé le 18 juillet le lancement d'un nouveau modèle d'IA générative, baptisé "GPT-4o Mini". L'entreprise serait également en train de construire un modèle d'IA capable d'un raisonnement avancé, surpassant les capacités de l'actuel modèle phare GPT-4o. Le nouveau modèle, appelé "Strawberry", aurait également des réactions plus proches de celles des humains.

Si l'intelligence artificielle (IA) est un domaine en pleine expansion, il n’est pas sans risques financiers. Des analyses ont suggéré qu'OpenAI pourrait bien en faire l’amère expérience. L'entreprise pourrait perdre jusqu’à 5 milliards de dollars en 2024, mettant ainsi en péril sa trésorerie dans les 12 prochains mois.

Face à cette situation, OpenAI serait en pourparlers avancés avec des investisseurs en vue d'obtenir un financement de 6,5 milliards de dollars. Au fur et à mesure de la levée de fonds, la valorisation d'OpenAI devrait atteindre 150 milliards de dollars. Plusieurs géants de la technologie, dont Apple et Nvidia, soutiendraient cette levée de fonds.


Selon un rapport de Bloomberg du 11 septembre citant des sources familières avec le sujet, la nouvelle évaluation de 150 milliards de dollars ne comprend pas les fonds levés. Ce nouveau chiffre est bien supérieur à l'évaluation de 86 milliards de dollars obtenue lors de l'offre publique d'achat de l'entreprise en février. La startup cherche également à emprunter 5 milliards de dollars supplémentaires auprès de banques sous la forme d'une facilité de crédit renouvelable : une ligne de crédit flexible qui permettrait à OpenAI de tirer, de rembourser et de re-tirer des fonds en fonction des besoins.

La société d'investissement Thrive Capital est à la tête de ce tour de table avec un financement d'un milliard de dollars. Des géants de la technologie tels que le fabricant de puces Nvidia et Apple font partie des investisseurs intéressés par le soutien de la startup d'IA. Microsoft participe également à ce tour de table. Le conglomérat technologique a investi 13 milliards de dollars dans OpenAI depuis 2019 et en possède déjà 49 %. Les sommes qu'Apple, Nvidia et Microsoft investiront restent inconnues.

OpenAI s'est efforcée d'augmenter ses revenus. En mai, son chiffre d'affaires annualisé était d'environ 3,4 milliards de dollars. Cependant, elle continue de croître en termes de nombre d'utilisateurs payant pour ses services. Selon des rapports, OpenAI a dépassé le million d'utilisateurs pour ChatGPT Enterprise, Teams et Edu, ce qui représente une augmentation de 67 % depuis avril. Pour tirer parti de cette croissance, la startup prévoit d'introduire des modèles d'abonnement premium plus coûteux, qui pourraient coûter jusqu'à 2 000 dollars par mois pour ses prochains grands modèles de langage, Strawberry et Orion.

La course au développement de l'IA continue de pousser les startups à lever des milliards de dollars. Le 4 septembre, l'ancien scientifique en chef d'OpenAI, Ilya Sutskever, a obtenu 1 milliard de dollars pour une nouvelle entreprise d'IA baptisée Safe Superintelligence. Cette startup a pour objectif de développer des systèmes d'IA qui sont non seulement très intelligents, mais aussi sûrs. Les investisseurs qui soutiennent cette initiative sont a16z, Sequoia, DST Global, NFDG et SV Angel.

Source : Rapport de Bloomberg

Et vous ?

Quel est votre avis sur le sujet ?

Voir aussi :

La France en tête du classement des pays d'Europe où les startups d'IA générative ont levé le plus de fonds avec 2,29 milliards de dollars, tandis que Londres compte le plus grand nombre de startups d'IA

L'IA perd de sa popularité et certains investisseurs commencent à craindre qu'elle ne leur apporte pas les profits considérables escomptés, d'autres restent toutefois optimistes quant au potentiel de l'IA

OpenAI assure ne pas pouvoir gagner de l'argent sans utiliser gratuitement du matériel protégé par le droit d'auteur et estime que « légalement, la loi sur le droit d'auteur n'interdit pas l'entraînement »

Le fonds spéculatif Elliott estime que l'IA est "surestimée" et que l'action Nvidia est "une bulle" qui pourrait éclater si Nvidia publiait de mauvais résultats financiers et rompait ainsi le charme

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de edrobal
Membre averti https://www.developpez.com
Le 26/11/2024 à 11:49
Mais ces gens ne peuvent pas créer de l'intelligence, seulement accumuler des données ce qui n'est pas de l'intelligence. Cela rappelle le débat entre Montaigne et Rabelais : une tête bien pleine ou une tête bien faite. Je prêche dans le vide mais je répète que l'IA cela n'existe pas, c'est juste un habillage de marketing pour des algorithmes de traitement de masses de données.
7  0 
Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 03/12/2024 à 16:08


Citation Envoyé par edrobal Voir le message
Je prêche dans le vide mais je répète que l'IA cela n'existe pas, c'est juste un habillage de marketing pour des algorithmes de traitement de masses de données.
Oui, l'IA n'existe pas. C'est juste, comme tu le dis bien, un habillage marketing, où l'on remplace le terme "Algorithme" par le terme "IA". La différence de perception, seuls des gens sachant de quoi ils parlent savent la comprendre.

Mr. et Md. "tout-le-monde" y croyent car avant on leur parlait de "technique", et ça leur passait au-dessus de la tête. Renommer algorithme par IA, et ça les touchent un peu plus, car dans le terme IA, il y a "intelligence", chose qu'ils "comprennent mieux".

Quand on me parle de l'IA, je finis toujours par : "Et à fin, il y a un 'IF'. Un oui ou non.

Mais l'IA est une "nouvelle" sorte d'algo, qui fait un énorme traitement, d'une toute aussi énorme masse de données, et utilisant une gigantesque quantité d'énergie. Cette manière de procéder est nouvelle, dans le sens où elle n'était (par des limites matérielles) pas possible auparavant.

Comme beaucoups d'autres "inventions", il y aura du bon et du mauvais. Cette manière de procéder sera adaptée à certains domaines, et n'apportera rien dans d'autres domaines. Cela dépendra aussi de la qualité et de la pertinence des données que pourra traiter une IA.

Un peu d'histoire...

  • L'imprimerie en tant que "technique" ne faisait rien de "miraculeux", mais ça a aidé à diffuser le "savoir". L'imprimerie étant plus rapide qu'un moine copiste.
  • La radio ne créait rien non plus, mais a permis une plus grande diffusion du savoir.
  • Internet, à ses débuts, a aider à partager le savoir.
  • Les moteurs de recherche on permis de "trouver plus vite" le savoir.
  • L'IA va aider a mettre en pratique un savoir, et c'est là le danger. L'IA ne va rien "inventer", mais va permettre à des "non initiés" de "(re)produire" des "choses" qu'ils ne maîtrissent pas. Où est le danger ? Pour moi, l'écart va se creuser entre ceux "qui savent" et d'autres "qui font".


En résumant, ce n'est pas parce que l'on sait utiliser une calculatrice, qu'il ne faut pas continuer a apprendre les mathématiques.

BàV et Peace & Love.
4  0 
Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 26/09/2024 à 20:19


Donc, si je reprend dans l'ordre:

Citation Envoyé par Stéphane le calme Voir le message
Shazeer a rejoint Google en 2000. Peu après son entrée en fonction, il a demandé à Eric Schmidt, alors PDG de l'entreprise, l'accès à des milliers de puces électroniques. « Je vais résoudre le problème de la culture générale d'ici le week-end », a déclaré Shazeer à Schmidt, qui s'en est souvenu lors d'une conférence donnée en 2015 à l'université de Stanford. Les premiers efforts ont échoué, mais Schmidt s'est montré convaincu que Shazeer avait ce qu'il fallait pour construire une IA dotée d'une intelligence de niveau humain. « S'il y a quelqu'un dans le monde qui est susceptible de le faire, c'est bien lui », a déclaré Schmidt lors de la conférence.
Nous sommes donc début 2000. Shazeer déclare : « Je vais résoudre le problème de la culture générale d'ici le week-end ». Apparement, le week-end n'a pas suffit, nous sommes maintenant en 2024, et ce week-end devient un peu long...

Citation Envoyé par Stéphane le calme Voir le message
En 2017, Shazeer a publié, avec sept autres chercheurs de Google, un article intitulé « Attention is All You Need », décrivant en détail un système informatique capable de prédire de manière fiable le mot suivant d'une séquence lorsqu'il est demandé par des humains. Cet article est devenu le fondement de la technologie d'IA générative qui a suivi.
Donc, après ce court week-end de 17 ans, Shazeer publie un article intitulé « Attention is All You Need », décrivant en détail un système informatique capable de prédire de manière fiable le mot suivant d'une séquence lorsqu'il est demandé par des humains.

Cet article est devenu le fondement de la technologie d'IA générative qui a suivi.

Donc, en 2017, les bases sont jetées, le fondement de l'IA générative est là. Les fondements de l'IA générative, c'est donc de "prédire" de manière fiable, le mot suivant d'une séquence qui le précède. 17 ans. 17 ans. 17 ans. Pour ce qui est finalement une recherche statistique qui ne pourra être faite qu'en créant une gigantesque base de donnée. (On en revient au vol de ces données ?)

Citation Envoyé par Stéphane le calme Voir le message
Vers 2018, Shazeer a prédit que ce chatbot pourrait remplacer le moteur de recherche de Google et générer des billions (un billion étant 1 000 milliards) de dollars de revenus, selon des personnes familières avec le document.
Revoici madame Irma. 6ans plus tard, où sont les 1000 milliards ?

« Ça va être super, super utile »

Citation Envoyé par Stéphane le calme Voir le message
Shazeer et son équipe espéraient que les gens paieraient pour interagir avec des chatbots capables de fournir des conseils pratiques ou d'imiter des célébrités comme Elon Musk et des personnages de fiction comme Percy Jackson. « Cela va être très, très utile pour de nombreuses personnes qui se sentent seules ou déprimées », a déclaré Shazeer l'année dernière dans le podcast The Aarthi and Sriram Show.
Effectivement, c'est vraiment super super utile... Le monde n'attendait que ça.

Citation Envoyé par Stéphane le calme Voir le message
Au fur et à mesure que l'entreprise se développait, le personnel devait de plus en plus essayer d'empêcher les clients de s'engager dans des jeux de rôle romantiques, un cas d'utilisation qui ne correspondait pas à la vision de Shazeer et De Freitas. À l'instar d'autres startups spécialisées dans l'IA qui tentent de rivaliser avec des géants comme OpenAI et Microsoft, Character a également eu du mal à couvrir les coûts élevés du développement de sa technologie avant de disposer d'une solide source de revenus.
Mais bien sûre, comme tout bon mégalo qui se respecte, il faut "penser" comme lui, adopter sa vision. Ah ce stade, une bonne consultation s'impose.

Citation Envoyé par Stéphane le calme Voir le message
Une licence, d'accord, mais pour quelle raison ?
Et vous ?
Je ne peux que constater, en résumant, que le gars, après quelques week-end de taf, que l'IA générative ne peut fonctionner qu'en volant les données produites par d'autres, n'est pas fiable, est biaisée par ceux qui (re)vendent un travail volé après l'avoir passée dans leur moulinette, et reformulée selon leur vision. Franchement je dis bravo au gars en question (Shazeer), parce qu'avoir gagner des millions si pas des milliards, avec une technologie qui n'est rien de plus qu'un calcul statistique, je dis chapeau.



BàV et Peace & Love.
2  0 
Avatar de _toma_
Membre éclairé https://www.developpez.com
Le 12/12/2024 à 23:44
C'est toujours la même chose : ceux qui prônent une économie dérégulée et qui chient sur un état qui les contraint dans leurs mouvements sont les premiers à venir pleurer auprès de l'état quand ce ne sont pas eux qui sont en position de force.

"Un marché libre, oui, mais à condition que je sois toujours gagnant."

Qu'il soient fabricants de voitures, d'avions ou d'ordinateurs, c'est le même scénario.
2  0 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 13/09/2024 à 7:37
Citation Envoyé par OuftiBoy Voir le message
Oui, je suis bien d'accord, c'est un vrai problème, qui existe depuis toujours mais qui va être ingérable avec des "études" sorties de l'IA.
Et pour moi le problème vient de la capitalisation de la recherche.
En plus du fait que la recherche est beaucoup financer par les industries, donc orientée vers telle ou telle direction.
Il y a du bon et du moins bons dans le système tel qu'il existe maintenant (sans l'IA). Le fait de devoir passer par un système de relecture, n'est pas (selon moi) un gage de qualité. C'est aussi un outil de censure pour mettre de côté toute idée "novatrice". Devoir faire "valider" un travail par d'autre, peut faire que ces "autres personnes" (qui sont souvent un petit cercle de camas), rejettent une "étude" qui ne vas pas dans le sens qu'ils ont eux-mêmes décrit/expliqué/démontré par avant. Cela les obligeraient a avouer qu'ils n'avaient pas raison. C'est assez difficile d'émettre une idée "novatrice", quelque soit l'idée, le domaine, le niveau. L'homme à une tendance à résister au changement au lieu de s'y adapter.
En théorie ce n'est pas le cas, parce que la relecture n'est pas censée critiquer le résultat mais la rigueur de la méthode et de sa documentation.
Et les seuls cas de chercheurs qui condamnent cette censure que je connais sont des cas qui ont biaisé leur propre étude. Ce que je peux comprendre dans certains cas, passer des mois sur une recherche sans résultat - l'absence de résultat est un résultat en soi - est frustrant.
L'un des problèmes étant que les chercheurs sont financés, en grande partie, par des industries ou des grands groupes donc le résultat attendu est implicite. Et le chercheur se retrouve dans une situation bien délicate quand son étude se dirige vers une autre conclusion : biaiser son étude ou perdre son travail financement.
Et rien n'empêche de grandes revues de faire des "erreurs" (volontairement ou pas). Il me semble qu'il y quelques années, une revue comme "Lancet" a également été l'objet d'un scandale, mais je ne me souviens plus des détails.
La science fait des erreurs par essence.
Notamment parce que personne ne fait de contre étude, si je suit le même protocole je suis censé arrivé à la même conclusion. Mais personne ne finance les contre études, donc personne ne les fait.
Des études pourraient être contredites rien que par cette méthode.
1  0 
Avatar de Gluups
Membre émérite https://www.developpez.com
Le 27/09/2024 à 9:36
Citation Envoyé par Gluups Voir le message
L'URL dit comme toi, mais si tu cliques et que tu regardes en haut, tu vas voir que je ne suis pas tant que ça à côté de la plaque.
Oups, je me suis mélangé les pinceaux.
"Love is all you need", c'est à la fin du refrain.
1  0 
Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 27/09/2024 à 12:12


Citation Envoyé par Jon Shannow Voir le message
ET Paul Mac Cartney (le seul vrai Beatles)
Tu as raison, j'aurais du le citer également. Je ne suis pas un spécialiste des beattles. Mes références, ce sont plutôt les 80's. Une époque bénnie que l'on est pas près de revoir. Et ce dans bien des domaines. Il y a encore eu quelques soubressaut dans les années 90, mais depuis 2000, c'est le néant absolu, là aussi, dans bien des domaines.

BàT, excuse mon erreur, et Peace & Love.
1  0 
Avatar de Jipété
Expert éminent sénior https://www.developpez.com
Le 27/09/2024 à 17:13
Citation Envoyé par OuftiBoy Voir le message

Citation Envoyé par Jipété Voir le message
Pas sûr de comprendre ce que tu veux dire, là : on dirait (je dis bien "on dirait") que tu nies l'existence de cette maladie. Mais alors, les malades, les morts ?
Ceux qui l'ont eu et n'en sont pas remis ?
Etc.
Je ne suis pas à l'origine de ces propos.
Ne te sens pas obligé de répondre (même si on dirait que c'est un tic compulsif), ce n'est pas à toi que je m'adressais.

Pour le reste de ton post, es-tu obligé de nous rebalancer ce que plein de gens nous balancent depuis deux ou trois ans en boucle ?
Continuons à gaspiller de l'espace-disque en récrivant ce que d'autres ont déjà écrit...
2  1 
Avatar de Eye_Py_Ros
Membre du Club https://www.developpez.com
Le 26/11/2024 à 15:22
On a inventé le big data,

On ramasse masse de données comme des sangsues
On étiquette les données à la chaîne.
On a trouvé un truc pour exploiter le bigdata avec quelque chose capable de requêter une base compilé en langage naturel.

Comme ça semble magique on a appel ça I.A.

Certes les LLM c'est un outil puissant, mais l'IA n'existe pas encore; change my mind

la phase "entrainement " n'est qu'une compilation compression avec perte
Le jour où l'on aura un réseau multiagent "self-aware" de son environnement capable d'enchaîner des prises de décision cohérente et pas sortir une ânerie du style il y a 2 r dans strawberry on aura fait du progrès
en attendant, la prise de décision des LLM c'est un double random de lancé de dés entre des choix préexistants ou hallucination le cas échéant.
1  0 
Avatar de Minato Sensei
Membre habitué https://www.developpez.com
Le 12/12/2024 à 12:20
Citation Envoyé par Jade Emy Voir le message
Google a demandé à la FTC américaine de rompre l'accord exclusif de Microsoft pour l'hébergement de la technologie d'OpenAI sur ses serveurs cloud Azure, Microsoft abuserait d'avantages déloyaux

Google a demandé à la la Commission fédérale du commerce (FTC) des États-Unis de rompre l'accord exclusif de Microsoft pour l'hébergement de la technologie d'OpenAI sur ses serveurs cloud Azure. Google souhaite également héberger les modèles d'OpenAI afin que leurs clients cloud n'aient pas besoin d'accéder aux serveurs de Microsoft pour accéder à la technologie de la startup.
ça chouine fort dans la Silicon Valley. Qu'est-ce qu'il ne faut pas entendre. Les mecs ont misé sur OpenAI, ils semblent raflé la mise. De son côté Google s'essayait à Bard (le nom il a évolué encore depuis ou bien ?). Son IA woke n'a pas découvert comment faire du feu avec deux silex alors "ouin ouin, Microsoft est pÔ jOOOntiiiiil, ils veulent garder OpenAI pour eux tout seul, il faut les en empêcher".

Quelle grosse farce.

Une entreprise en situation de monopole (sur la recherche et la pub en ligne - combo Gagnant complété par Chrome) qui s'attaque à une autre entreprise (en situation de monopole en devenir ?) parce qu'elle a eu le coup d'œil qu'Alphabet n'a pas eu et qu'en plus Alphabet a du mal à apprécier ses propres efforts internes en matière d'IA. Quelle ironie
1  0