IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

OpenAI pourrait perdre 5 milliards de dollars cette année et se retrouver à court de liquidités dans 12 mois
Selon un rapport qui évoque ses dépenses colossales en formation des modèles d'IA et en rémunération

Le , par Stéphane le calme

12PARTAGES

7  0 
L’intelligence artificielle (IA) est un domaine en pleine expansion, mais il n’est pas sans risques financiers. OpenAI, le créateur de ChatGPT, pourrait bien en faire l’amère expérience. Selon une analyse de The Information, l’entreprise pourrait perdre jusqu’à 5 milliards de dollars en 2024, mettant ainsi en péril sa trésorerie dans les 12 prochains mois.

OpenAI a lancé ChatGPT en novembre 2022. L'assistant d'IA a rapidement gagné en popularité, dépassant les 100 millions d'utilisateurs hebdomadaires. L'entreprise d'intelligence artificielle, basée aux États-Unis, a annoncé le 18 juillet le lancement d'un nouveau modèle d'IA générative, baptisé « GPT-4o Mini ». L'entreprise serait également en train de construire un modèle d'IA capable d'un raisonnement avancé, surpassant les capacités de l'actuel modèle phare GPT-4o. Le nouveau modèle, appelé « Strawberry », aurait également des réactions plus proches de celles des humains.

Toutefois, OpenAI gère une entreprise coûteuse qui pourrait perdre jusqu'à 5 milliards de dollars en 2024, ce qui mettrait le fabricant de ChatGPT à court de liquidités dans les 12 mois à venir, selon une analyse de The Information.

Des dépenses colossales

Selon le rapport, qui cite des données financières précédemment non divulguées et des personnes familières avec l'entreprise, OpenAI est sur la bonne voie pour dépenser quelque 7 milliards de dollars uniquement pour la formation de ses modèles d'intelligence artificielle, et 1,5 milliard de dollars supplémentaires pour la dotation en personnel. Ces dépenses dépassent de loin celles de ses rivaux, comme Anthropic, soutenu par Amazon, qui prévoit un taux d'absorption de 2,7 milliards de dollars en 2024.

Les dépenses élevées d'OpenAI pourraient obliger l'entreprise à conclure un nouveau cycle de financement dans les 12 mois pour renforcer son bilan, selon le rapport. OpenAI a déjà réalisé sept tours de financement, levant plus de 11 milliards de dollars, selon les données de Tracxn - le plus récent étant un tour privé avec ARK Investment Management en avril pour une somme non divulguée.


Les défis réglementaires et de transparence

Outre les défis financiers, OpenAI doit également faire face à des questions réglementaires. En effet, la Securities and Exchange Commission (SEC), gendarme américain des marchés financiers, enquête sur des allégations de non-respect des accords de confidentialité. De plus, des législateurs américains ont exprimé leurs préoccupations concernant les normes de sécurité et les pratiques d’emploi d’OpenAI. Dans une lettre adressée au PDG d'OpenAI, Sam Altman ils ont demandé si l’entreprise s’engagerait à rendre son prochain modèle de base disponible aux agences gouvernementales américaines pour des tests, des examens et des évaluations préalables au déploiement.

Les motifs ? Ils l'expliquent avant de lister leurs exigences :

« Une IA sûre et sécurisée est largement considérée comme vitale pour la compétitivité économique et la position géopolitique de la nation au XXIe siècle. En outre, OpenAI travaille actuellement en partenariat avec le gouvernement américain et les agences de sécurité et de défense nationales pour développer des outils de cybersécurité destinés à protéger les infrastructures critiques de notre pays. La sécurité nationale et économique fait partie des responsabilités les plus importantes du gouvernement des États-Unis, et les systèmes d'IA non sécurisés ou autrement vulnérables ne sont pas acceptables.

« Compte tenu de la position d'OpenAI en tant qu'entreprise leader dans le domaine de l'IA, il est important que le public puisse avoir confiance dans la sûreté et la sécurité de ses systèmes. Cela inclut l'intégrité de la structure de gouvernance de l'entreprise et des tests de sécurité, ses pratiques d'emploi, sa fidélité à ses promesses publiques et à sa mission, ainsi que ses politiques de cybersécurité. Les engagements volontaires que vous et d'autres grandes entreprises d'IA avez pris avec la Maison Blanche l'année dernière ont constitué une étape importante dans l'instauration de cette confiance ».

Pour Mark Zuckerberg, l'avenir est dans l'IA open source

Dans une lettre récente, Mark Zuckerberg, fondateur et PDG de Meta, a souligné le rôle essentiel de l'IA open source et les avantages qu'elle confère pour les développeurs, pour Meta et pour le monde entier. Faisant le parallèle avec le succès de l'open source Linux, Zuckerberg a souligné les avancées des modèles Llama de Meta, en particulier le nouveau Llama 3.1 405B de niveau frontière. Il a détaillé la collaboration de Meta avec de grandes entreprises technologiques afin de favoriser un écosystème d'IA étendu, plaidant pour que l'open source soit l'avenir de l'innovation en matière d'IA et la norme de l'industrie :

« Dans les premiers temps de l'informatique de haute performance, les principales entreprises technologiques de l'époque ont toutes investi massivement dans le développement de leurs propres versions d'Unix à code source fermé. À l'époque, il était difficile d'imaginer qu'une autre approche puisse permettre de développer des logiciels aussi avancés. Cependant, Linux a fini par gagner en popularité, d'abord parce qu'il permettait aux développeurs de modifier son code à leur guise et qu'il était plus abordable, puis parce qu'il est devenu plus avancé, plus sûr et qu'il disposait d'un écosystème plus large prenant en charge davantage de fonctionnalités que n'importe quel Unix fermé. Aujourd'hui, Linux est la base standard de l'industrie pour le cloud computing et les systèmes d'exploitation qui font fonctionner la plupart des appareils mobiles - et nous bénéficions tous de produits de qualité supérieure grâce à lui.

« Je pense que l'IA se développera de la même manière. Aujourd'hui, plusieurs entreprises technologiques développent des modèles fermés de pointe. Mais l'open source comble rapidement le fossé. L'année dernière, Llama 2 n'était comparable qu'à une ancienne génération de modèles derrière la frontière. Cette année, Llama 3 est compétitif avec les modèles les plus avancés et en avance dans certains domaines. À partir de l'année prochaine, nous prévoyons que les futurs modèles Llama deviendront les plus avancés de l'industrie. Mais même avant cela, Llama est déjà en tête pour ce qui est de l'ouverture, de la modifiabilité et de la rentabilité ».

L'évolution chez la concurrence

Llama 3.1

Meta affirme que Llama 3.1 405B est le premier modèle disponible en libre accès qui rivalise avec les meilleurs modèles d’IA en termes de capacités de pointe dans les domaines de la connaissance générale, de l’orientation, des mathématiques, de l’utilisation d’outils et de la traduction multilingue. Avec la sortie du modèle 405B, Meta indique être prêt à stimuler l’innovation, avec des possibilités de croissance et d’exploration sans précédent. La société pense que la dernière génération de Llama va donner naissance à de nouvelles applications et à de nouveaux paradigmes de modélisation, y compris la génération de données synthétiques pour permettre l’amélioration et l’entraînement de modèles plus petits, ainsi que la distillation de modèles – une capacité qui n’a jamais été atteinte à cette échelle dans le domaine de l’open-source.

Dans le cadre de cette dernière version, Meta présente des versions améliorées des modèles 8B et 70B. Ceux-ci sont multilingues et disposent d’une longueur de contexte nettement plus importante (128 Ko), d’une utilisation d’outils de pointe et de capacités de raisonnement globalement plus solides. Cela permet aux derniers modèles de Meta de prendre en charge des cas d’utilisation avancés, tels que le résumé de textes longs, les agents conversationnels multilingues et les assistants de codage. Meta a également modifié sa licence, ce qui permet aux développeurs d’utiliser les résultats des modèles Llama, y compris le 405B, pour améliorer d’autres modèles. Fidèles à son engagement en faveur de l’open-source, Meta a mis dès aujourd’hui ces modèles à la disposition de la communauté pour le téléchargement sur llama.meta.com et Hugging Face, ainsi que pour le développement immédiat sur son vaste écosystème de plateformes partenaires.


Large 2 de Mistral AI

La startup française Mistral AI vient d'annoncer la sortie de Large 2, son nouveau modèle phare dont les capacités de génération de code, de mathématiques et de raisonnement sont considérablement accrues. Mistral AI a également ajouté un support multilingue amélioré et des capacités d'appel de fonctions avancées avec Large 2.

Le modèle Mistral Large 2 compte 123 milliards de paramètres, ce qui lui permet de fonctionner sur un seul nœud H100 à haut débit. Il prend en charge les langues française, allemande, espagnole, italienne, portugaise, arabe, hindi, russe, chinoise, japonaise et coréenne. En termes de codage, il prend en charge plus de 80 langages de codage, dont Python, Java, C, C++, JavaScript et Bash.

Pour les développeurs, Mistral Large 2 est désormais doté de compétences améliorées en matière d'appel et de récupération de fonctions. Il peut désormais exécuter des appels de fonctions parallèles et séquentielles, ce qui permet aux développeurs de créer des applications d'IA commerciales complexes.

Les performances de Mistral Large 2 (123B) sont comparables à celles de GPT-4o d'OpenAI, du Claude Opus 3 et du Meta's Llama 3.1 405B récemment sorti sur les benchmarks de codage. Sur les benchs Wild Bench, Arena Hard et MT Bench, Large 2 surpasse Llama 3.1 405B et Claude 3 Opus. Sur le populaire benchmark MMLU, ce nouveau modèle surpasse Llama 3.1 70B et est comparable à Llama 3.1 405B.

Mistral Large 2 est maintenant disponible avec des poids ouverts, mais il n'est disponible gratuitement que pour la recherche et l'utilisation non-commerciale. Pour une utilisation commerciale, une licence de modèle est nécessaire. Avec sa sortie, Mistral consolide son portefeuille de modèles. Il y aura deux modèles polyvalents, Mistral Nemo et Mistral Large, et deux modèles spécialisés, Codestral et Embed.


Conclusion

Alors qu'OpenAI est considéré par beaucoup comme le leader en matière d'IA, l'écart avec la concurrence ne cesse de se réduire. Pourtant, ses besoins en matière de financement sont loin de diminuer, les entrées ne couvrant vraisemblablement pas tous ses besoins. Aussi, Gary Marcus, le fondateur et directeur général de Geometric Intelligence (racheté par Uber), estime que, vu le contexte, les investisseurs devraient se poser les questions suivantes :

Quel est leur plus-value ? Une technologie unique ? Quel est leur chemin vers la rentabilité alors que Meta offre gratuitement des technologies similaires ? Ont-ils une « killer app » ? La technologie sera-t-elle un jour fiable ? Qu'est-ce qui est réel et qu'est-ce qui n'est qu'une démo ?

Sources : The Information, Tracxn, lettre des législateurs

Et vous ?

L’IA devrait-elle être réglementée de manière plus stricte pour éviter les risques financiers des entreprises comme OpenAI ? Les dépenses massives d’OpenAI soulèvent des inquiétudes quant à la viabilité financière. Devrions-nous imposer des limites ou des contrôles plus stricts sur les investissements dans l’IA ?
Quelles sont les implications de la perte potentielle de 5 milliards de dollars pour OpenAI et l’industrie de l’IA en général ? Comment cela pourrait-il affecter la recherche, le développement et l’innovation dans le domaine de l’IA ?
La transparence d’OpenAI est-elle suffisante ? Les législateurs et les utilisateurs se préoccupent de la manière dont OpenAI gère la sécurité, la confidentialité et la divulgation de ses modèles. Quelles mesures supplémentaires devraient être prises ?
Partagez-vous le point de vue de Gary Marcus qui pense que les investisseurs devraient se poser les questions suivantes au sujet d'OpenAI : « Quel est leur plus-value ? Une technologie unique ? Quel est leur chemin vers la rentabilité alors que Meta offre gratuitement des technologies similaires ? Ont-ils une "killer app" ? La technologie sera-t-elle un jour fiable ? Qu'est-ce qui est réel et qu'est-ce qui n'est qu'une démo ? » ? Dans quelle mesure ?
Si Llama ou une autre IA venait à dépasser les performances proposées par les IA d'OpenAI, quelles pourraient en être les conséquences ?
Des IA susceptibles selon vous de réaliser cette prouesse ? Lesquelles ?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de
https://www.developpez.com
Le 04/09/2024 à 21:19
Citation Envoyé par Stéphane le calme Voir le message
Quels compromis seriez-vous prêt à accepter pour permettre l’innovation en IA tout en protégeant les droits des auteurs ?
Aucun, pourquoi un générateur de médiocrité (nivelage de tout le contenu) pourrait voler le travail des producteurs de valeur pour que OpenAI puisse "gagner de l'argent" en empêchant le dit producteur de valeur d'en gagner ? La réponse à votre question est dans la question en fait, il suffit de remplacer "innovation" par ce qu'est réellement un tel moteur conversationnel qui répond tout et n'importe quoi et de se rappeler le sens de "droit" et de "auteur"

Citation Envoyé par Stéphane le calme Voir le message
Pensez-vous que les entreprises technologiques devraient payer une redevance pour utiliser des contenus protégés par le droit d’auteur ? Si oui, comment cette redevance devrait-elle être calculée ?
Sur la base d'une négociation avec chaque auteur. s'ils ont besoin des ces données il doivent la respecter et donc respecter ceux qui la produise.

Citation Envoyé par Stéphane le calme Voir le message
Comment les créateurs de contenu peuvent-ils collaborer avec les entreprises d’IA pour garantir une utilisation éthique de leurs œuvres ?
C'est leur droit, c'est aux entreprises d'IA de faire les efforts nécessaires.

Citation Envoyé par Stéphane le calme Voir le message
L’utilisation de matériaux protégés par le droit d’auteur sans autorisation pourrait-elle nuire à la diversité et à la qualité des contenus disponibles en ligne ?
C'est déjà le cas, il suffit d'interroger ChatGPT ou Mistral ou autre sur n'importe quel sujet que l'on connait bien pour constater le massacre qui est fait de l'information, vaguement reformulées, avec très souvent des hallucinations ubuesques. En enseignement c'est terrible aujourd'hui, on doit passer 4h sur un sujet qui en prenait 1 avant pour faire désapprendre aux étudiants des trucs faux qui les empêchent de comprendre la notion.

Citation Envoyé par Stéphane le calme Voir le message
Quelles mesures législatives pourraient être mises en place pour équilibrer les besoins des développeurs d’IA et les droits des créateurs ?
Mais pourquoi équilibrer ? les entreprises d'IA n'ont rien à imposer. Si tel était le cas ce serait la fin de tout. Les auteurs n'auraient plus de revenus donc ne produiraient plus et il ne resterait que la soupe mal interprétées par ces "IA" sur la base de l'existant, grande victoire pour les entreprises d'IA qui deviendraient riche pendant un certain temps, une catastrophe pour l'humanité qui deviendrait comme les gros bonhommes dans Wall-e.

Citation Envoyé par Stéphane le calme Voir le message
Pensez-vous que l’accès libre aux informations et aux œuvres culturelles est essentiel pour le progrès technologique, ou cela devrait-il être strictement réglementé ?
si le progrés technologique n'apporte qu'une baisse de qualité et une perte de travail dans une société où on est de plus en plus nombreux il est évident que la réglementation doit empêcher la désignation de "progrés" ce qui n'est qu'un simple moteur conversationnel qui répond coute que coute même quand il ne sait pas. La Justice doit par ailleurs vivement condamner les atteintes au droit d'auteur, sinon ça veut dire que les grosses boites sont plus fortes que l’état de droit...gros soucis.

Citation Envoyé par Stéphane le calme Voir le message
Comment les utilisateurs finaux des technologies d’IA peuvent-ils influencer les pratiques des entreprises en matière de respect des droits d’auteur ?
Quand ils se rendront compte que ça ne leur apporte rien à part le "plaisir" de participer au truc fun du moment, quand ils se lasseront des images toutes identiques, quand ils se lasseront des contenus plats au goût de réchauffé, ils se mordront les doigts et se retourneront vers les gens qui produisent du contenu qui les élève ou les fait rêver.
15  1 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 05/09/2024 à 9:55
Citation Envoyé par Stéphane le calme Voir le message
Controverse autour du droit d'auteur : OpenAI assure ne pas pouvoir gagner de l'argent sans utiliser gratuitement du matériel protégé
Que se passe-t-il quand un entreprise a un business model qui n'est pas viable?
Elle vire son CEO
Elle met la clé sous la porte
Elle est rachetée
Elle peut aussi sortir de la loi mais à ses risques et péril
etc

C'est quand même incroyable que des entreprises hégémoniques se permettent ce genre de discours et qu'en plus elles fasse du quasi-esclavage en parallèle de ça.
Vous êtes dans la une bulle financière, technique et technologique incroyable et vous ne pouvez pas respecter la loi? Il y a une chose qui cloche dans votre gestion!
11  0 
Avatar de Jules34
Membre émérite https://www.developpez.com
Le 05/09/2024 à 9:15
"Mais Monsieur comment voulez que je vende des voitures si je les voles pas au préalable !"
8  0 
Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 05/09/2024 à 15:52
Moi si je dis, il faut bien que cambriole 25 maisons par ans, sinon je ne sais pas partir en vacances, je suis certains que ça finira mal pour moi. Mais lui, le Altman, la nouvelle coqueluche du moment, il peut se permettre de dire qu'il ne peut gagner des millions qu'en volant le travail des autres, et ça passe crème.
7  0 
Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 10/09/2024 à 16:21
Citation Envoyé par Stéphane le calme Voir le message

La controverse autour de l’utilisation des matériaux protégés par le droit d’auteur par OpenAI soulève des questions cruciales sur l’équilibre entre l’innovation technologique et la protection des droits des créateurs. Alors que l’IA continue de progresser, il est essentiel de trouver des solutions qui respectent à la fois les besoins des développeurs d’IA et les droits des auteurs.
Je suis en total déssacord. C'est un principe utilisée vieux comment le monde. La question pose il est essentiel de trouver des solutions qui respectent à la fois les besoins des développeurs d’IA et les droits des auteurs.

C'est déjà éliminer la question du vol de donnée, pour qu'on accepte un "état de fait", et que la seule question qu'on se pose, soit de savoir si on doit choisr entre X ou Y pour régler le problème. C'est pourtant simple, tout vol est interdit. Et TOUS les acteurs de l'IA on procédé de la sorte, ils devraient selon en répondre devant un tribunal.

Parce que si on trouve normal que des entreprisent vol le contenus générer par d'autre, et que leur argument c'est "on ne peut pas faire autrement que de voler" pour faire fructifier notre buisness, alors, on doit accepter qu'on rentre dans un magasin, qu'on vole de dont en a envie besoin, et si on se fait choper à sortie, dire "je ne peux pas faire autrement que de voler" pour ne pas crever la dalle, et on ne devrait pas avoir de soucis. Et ça m'étonnerait très fort qu'une solution du type "comment règler le soucis entre ne pas crever" tout en laissant les magasin faire du pognon me sera proposée.

Si l'IA ne peux fonctionner qu'en volant, et bien on devrait tout simplement interdire ces dernières, sous peine de prison. Je ne vois pas pourquoi on ferait une exception "par ce que ça empêcherait l'innovation". Que ces messieurs, puisse qu'ils ne vont pas en prison, retourne dans leur entreprise et développe "une vrai" IA, sans devoir voler le contenu générer par d'autres. Mais c'est impossible en l'état actuelle de la technologie. Et qu'on ferme ces entreprises ne fera pas arrêter le monde de tourner, on vivait bien avant cette "ridicule technologie", et on vivra bien sans. Leur seul but, c'est de faire du pognon, et en plus en se basant sur le travail d'autres. C'est des méthodes de gangster et les gangster, on les mets en Prison.

Source : OpenAI (1, 2)

Citation Envoyé par Stéphane le calme Voir le message

Et vous ?
Quels compromis seriez-vous prêt à accepter pour permettre l’innovation en IA tout en protégeant les droits des auteurs ?
Aucun. Si l'IA était une innovation, elle devrait faire son taf sans voler les créateurs de contenus. Je vous pose la question à vous "Stéphane le calme", que feriez-vous si je récupérait l'ensemble de ce site, et que je l'utilise avec un autre emballage, que je fais du pognon avec, et que si vous n'êtes pas d'accord, je puisse vous répondre "je suis obligé de voler ce site, parce qu'aussi non, je ne sais pas faire du pognon ?" Quelle réaction auriez vous ? Tenteriez vous de "proposer une solution" qui nous satisface tous les deux ? Je ne pense pas, vous m'attaquerier en juste et je passerais surement par la case "prison".

J'aimerai bien avoir votre réponse.

Cordialement.

BàV et Peace & Love.
6  0 
Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 10/09/2024 à 23:38


Citation Envoyé par floyer Voir le message
Dire « c’est du vol » est un peu rapide…
Je ne trouve pas, d'autant plus que certains "grand patron" osent même dire ouvertement (la je cite l'ex-PDG de Google) :
Ne vous préoccupez pas des droits d'auteur, et prenez (volez) tous ce dont vous avez besoin, vous gagnerez tellement d'argent, que vous pourrez vous payer les meilleurs avocat du monde pour vous évités des soucis par la suite.

Citation Envoyé par floyer Voir le message
le vol est défini par la loi et une loi peut se changer (par le législateur bien sûr). En l’occurrence ce n’est pas du vol, mais une contrefaçon.
En fait, c'est les 2 ensembles. D'abord du vole de données, puis de la contrefaçon en régurgitant ce qui a été volé.

Citation Envoyé par floyer Voir le message
Le code de propriété intellectuelle définit d’ailleurs des modalités qui réduisent le droit d’auteur (courtes citations, parodie, pour les logiciels, copie de sauvegarde, etc…). Sur les brevets, il y a une expiration… on pourrait imaginer une clause d’exclusion pour l’IA.
Si on ne parle même que du code (sans parler des mucisiens ou autres artiste), on ne parle pas de "courtes" citations (mais d'écriture d'une énorme majorité de code en se basant sur ce qui a été volé au départ), ce n'est pas non plus de la parodie, ce n'est pas une copie de sauvegarde, etc...

Citation Envoyé par floyer Voir le message
Ainsi, la question est que gagnerait ou que perdrait-on à réduire les droits d’auteur au profit de l’IA. Je pense plutôt que la concurrence de l’IA est déloyale est mènerait à un appauvrissement de notre capital culturel à moyen terme. Légiférer pour permettre des « œuvres » imitant trop facilement ce qui est produit actuellement ou simplement ne permettant pas à beaucoup d’artistes de vivre ne me semble pas une bonne idée.
Il ne faut pas voir le problème sous cet angle, sinon ça veut dire qu'on négocie avec des voleurs. La question n'est pas de savoir ce qu'on gagnerait ou perdrait à réduire les droits d'auteur au profit de l'IA.

Si les "IA" était vraiment des "IA", et qu'elles produisent un contenus "original", je n'ai rien à redire, je n'ai rien contre la concurrence.

Mais on est très loin de ça ici. Et tous ceux qui se sont engoufrés dans cette voie en étaient parfaitement au courant.

Un peintre qui fait une copie d'un Rubens et la vend comme si c'était un authentique Rubens, c'est la prison. Point.

Si l'IA régurgite du code volé, c'est la prison pour les responsable. Point.

quand tu dis : Je pense plutôt que la concurrence de l’IA est déloyale est mènerait à un appauvrissement de notre capital culturel à moyen terme. Légiférer pour permettre des « œuvres » imitant trop facilement ce qui est produit actuellement ou simplement ne permettant pas à beaucoup d’artistes de vivre ne me semble pas une bonne idée.

Oui, ce serait un appauvrissement du capital culturel, quoique, en matière de musique, le niveau global et l'innovation est déjà tellement réduite, que les musiciens se sont déjà chargé eux-même de cela tout seuls . Tout se ressemble, tout est d'un niveau au rat des paquerette, fade, etc.

Il y bien longtemps qu'on a plus entendu un artiste produire quelque chose qu'un Balavoine, un Sardou auraient pu produire, ou qu'un artiste comme Coluche aurait pu dire. Tout cela n'est plus "autorisé", sous peine d'être directement taxé d'être d'extrême droite.

Il en faut aussi de la "variété", mais on manque cruellement de chanteur ou de personnalité public qui dérengeraient la pensée unique à laquel on nous soumet depuis la fin des 80's. Un vianey, un christophe maé, un Bioley, Pagni, Bruel, et tout ces artistes "bien dans le rang de la pensée unique bobo", a un moment ça finit par être soulant, pour rester poli.

Légiférer ne servirait à rien. Le point de départ, c'est le vol des données pour alimenter les LLM. Rien d'innovant ne peut sortir d'une IA. Il y aura dans tous les domaines un nivellement par le bas, plus d'originalité, de nouveau concept, de nouvelles idées.

Si une IA sort un disque "à la beattles" ou "à la ABBA", ça devrait au minimum être mentionné. On fait chanter macron, avec sa voix, mais déformée pour qu'elle reprenne le "style" d'Aznavour. Ce n'est rien de nouveau, c'est juste une contrefaçons faites avec des données volée. Chercher plus loin, c'est déjà accepter le vol initiale. Je ne vois pourquoi on ferait une exception pour l'IA.

BàT. et Peace & Love.
6  0 
Avatar de Gluups
Membre émérite https://www.developpez.com
Le 05/09/2024 à 23:05
Citation Envoyé par Stéphane le calme Voir le message
Controverse autour du droit d'auteur : OpenAI assure ne pas pouvoir gagner de l'argent sans utiliser gratuitement du matériel protégé,
Ah mais parce qu'en plus ils envisagent de gagner de l'argent, avec ça ? Mais pour quoi faire ?

Citation Envoyé par PO Voir le message
Aucun, pourquoi un générateur de médiocrité (nivelage de tout le contenu) pourrait voler le travail des producteurs de valeur pour que OpenAI puisse "gagner de l'argent" en empêchant le dit producteur de valeur d'en gagner ? La réponse à votre question est dans la question en fait, il suffit de remplacer "innovation" par ce qu'est réellement un tel moteur conversationnel qui répond tout et n'importe quoi et de se rappeler le sens de "droit" et de "auteur"
Un ténia ne peut pas survivre sans priver son hôte de ressources. Pourtant, malgré ça, sans pitié, l'hôte va avaler des potions qui vont l'affaiblir quelque temps, afin de se débarrasser du ténia.

Citation Envoyé par Jules34 Voir le message
"Mais Monsieur comment voulez que je vende des voitures si je les voles pas au préalable !"
C'est vrai, quoi.
2  0 
Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 26/09/2024 à 20:19


Donc, si je reprend dans l'ordre:

Citation Envoyé par Stéphane le calme Voir le message
Shazeer a rejoint Google en 2000. Peu après son entrée en fonction, il a demandé à Eric Schmidt, alors PDG de l'entreprise, l'accès à des milliers de puces électroniques. « Je vais résoudre le problème de la culture générale d'ici le week-end », a déclaré Shazeer à Schmidt, qui s'en est souvenu lors d'une conférence donnée en 2015 à l'université de Stanford. Les premiers efforts ont échoué, mais Schmidt s'est montré convaincu que Shazeer avait ce qu'il fallait pour construire une IA dotée d'une intelligence de niveau humain. « S'il y a quelqu'un dans le monde qui est susceptible de le faire, c'est bien lui », a déclaré Schmidt lors de la conférence.
Nous sommes donc début 2000. Shazeer déclare : « Je vais résoudre le problème de la culture générale d'ici le week-end ». Apparement, le week-end n'a pas suffit, nous sommes maintenant en 2024, et ce week-end devient un peu long...

Citation Envoyé par Stéphane le calme Voir le message
En 2017, Shazeer a publié, avec sept autres chercheurs de Google, un article intitulé « Attention is All You Need », décrivant en détail un système informatique capable de prédire de manière fiable le mot suivant d'une séquence lorsqu'il est demandé par des humains. Cet article est devenu le fondement de la technologie d'IA générative qui a suivi.
Donc, après ce court week-end de 17 ans, Shazeer publie un article intitulé « Attention is All You Need », décrivant en détail un système informatique capable de prédire de manière fiable le mot suivant d'une séquence lorsqu'il est demandé par des humains.

Cet article est devenu le fondement de la technologie d'IA générative qui a suivi.

Donc, en 2017, les bases sont jetées, le fondement de l'IA générative est là. Les fondements de l'IA générative, c'est donc de "prédire" de manière fiable, le mot suivant d'une séquence qui le précède. 17 ans. 17 ans. 17 ans. Pour ce qui est finalement une recherche statistique qui ne pourra être faite qu'en créant une gigantesque base de donnée. (On en revient au vol de ces données ?)

Citation Envoyé par Stéphane le calme Voir le message
Vers 2018, Shazeer a prédit que ce chatbot pourrait remplacer le moteur de recherche de Google et générer des billions (un billion étant 1 000 milliards) de dollars de revenus, selon des personnes familières avec le document.
Revoici madame Irma. 6ans plus tard, où sont les 1000 milliards ?

« Ça va être super, super utile »

Citation Envoyé par Stéphane le calme Voir le message
Shazeer et son équipe espéraient que les gens paieraient pour interagir avec des chatbots capables de fournir des conseils pratiques ou d'imiter des célébrités comme Elon Musk et des personnages de fiction comme Percy Jackson. « Cela va être très, très utile pour de nombreuses personnes qui se sentent seules ou déprimées », a déclaré Shazeer l'année dernière dans le podcast The Aarthi and Sriram Show.
Effectivement, c'est vraiment super super utile... Le monde n'attendait que ça.

Citation Envoyé par Stéphane le calme Voir le message
Au fur et à mesure que l'entreprise se développait, le personnel devait de plus en plus essayer d'empêcher les clients de s'engager dans des jeux de rôle romantiques, un cas d'utilisation qui ne correspondait pas à la vision de Shazeer et De Freitas. À l'instar d'autres startups spécialisées dans l'IA qui tentent de rivaliser avec des géants comme OpenAI et Microsoft, Character a également eu du mal à couvrir les coûts élevés du développement de sa technologie avant de disposer d'une solide source de revenus.
Mais bien sûre, comme tout bon mégalo qui se respecte, il faut "penser" comme lui, adopter sa vision. Ah ce stade, une bonne consultation s'impose.

Citation Envoyé par Stéphane le calme Voir le message
Une licence, d'accord, mais pour quelle raison ?
Et vous ?
Je ne peux que constater, en résumant, que le gars, après quelques week-end de taf, que l'IA générative ne peut fonctionner qu'en volant les données produites par d'autres, n'est pas fiable, est biaisée par ceux qui (re)vendent un travail volé après l'avoir passée dans leur moulinette, et reformulée selon leur vision. Franchement je dis bravo au gars en question (Shazeer), parce qu'avoir gagner des millions si pas des milliards, avec une technologie qui n'est rien de plus qu'un calcul statistique, je dis chapeau.



BàV et Peace & Love.
2  0 
Avatar de _toma_
Membre confirmé https://www.developpez.com
Le 09/09/2024 à 23:35
Ho bah ça alors, personne n'aurait pu prévoir ce phénomène.
Prochaine étape qu'on ne pourrait absolument pas prévoir : ça y est, c'est la fin de l'IA.
Cette étude met en lumière une fraude sur un secteur assez restreint. On peut facilement supposer que les dégâts sont plus larges et que les LLM ont déjà commencé à réingurgiter -en les considérant comme étant de source fiable- des textes qu'on leur a en partie fait générer.
1  0 
Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 09/09/2024 à 23:59


Citation Envoyé par _toma_ Voir le message
Ho bah ça alors, personne n'aurait pu prévoir ce phénomène.
Pourtant, je croise souvent des madames irma par ici

Citation Envoyé par _toma_ Voir le message
Prochaine étape qu'on ne pourrait absolument pas prévoir : ça y est, c'est la fin de l'IA.

Oui, car la prochaine étape, c'est déjà prévu, ce sera l'Intelligence Artificielle Intelligente. L'IAI. Elle permettra même, dixit les expert en ce domaine, et après une étude approndie faite sur le cousin du copain de ma soeur, de se prémunire des vampires qui sont de retour.

Citation Envoyé par _toma_ Voir le message
Cette étude met en lumière une fraude sur un secteur assez restreint. On peut facilement supposer que les dégâts sont plus larges et que les LLM ont déjà commencé à réingurgiter -en les considérant comme étant de source fiable- des textes qu'on leur a en partie fait générer.

Je n'irai pas aussi vite, comme le jeu actuellement est de réécrire l'histoire pour qu'elle colle mieux à l'idéologie dominante qu'on doit accepter pour ne pas être catalogué comme un dangereux nazi en bote brune, l'IAI pourrait être d'une grande aide, vu que c'est sa spécialité.

BàV et Peace & love.
1  0